qwertyuiopasdfghjklzxcvbnmqwertyui opasdfghjklzxcvbnmqwertyuiopasdfgh jklzxcvbnmqwertyuiopasdfghjklzxcvb nmqwertyuiopasdfghjklzxcvbnmqwer tyuiopasdfghjklzxcvbnmqwertyuiopas dfghjklzxcvbnmqwertyuiopasdfghjklzx cvbnmqwertyuiopasdfghjklzxcvbnmq wertyuiopasdfghjklzxcvbnmqwertyuio pasdfghjklzxcvbnmqwertyuiopasdfghj klzxcvbnmqwertyuiopasdfghjklzxcvbn mqwertyuiopasdfghjklzxcvbnmqwerty uiopasdfghjklzxcvbnmqwertyuiopasdf ghjklzxcvbnmqwertyuiopasdfghjklzxc vbnmqwertyuiopasdfghjklzxcvbnmrty uiopasdfghjklzxcvbnmqwertyuiopasdf ghjklzxcvbnmqwertyuiopasdfghjklzxc vbnmqwertyuiopasdfghjklzxcvbnmqw ertyuiopasdfghjklzxcvbnmqwertyuiop GUÍA DE APOYOEDUCATIVO.COM PARA EXAMEN PARA LA ACREDITACIÓN DE CONOCIMIENTOS EQUIVALENTES AL BACHILLERATO GENERAL ACUERDO 286
Sistemas Informáticos Tlatoani Soluciones Para T.I.
ApoyoEducativo.Com
Guía de ApoyoEducativo.Com para Examen para la Acreditación de Conocimientos Equivalentes al Bachillerato General Acuerdo 286 D.R. © 2012 Sistemas Informáticos Tlatoani (SIT) Sexta Edición
Índice Contenido Índice ........................................................................................ 3 Presentación ............................................................................ 4 Comunicación........................................................................... 5 Matemáticas .......................................................................... 41 Ciencias Experimentales ........................................................ 78 Ciencias Sociales .................................................................. 244 Información legal y de contacto .......................................... 289
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Presentación
Esta guía está diseñada para apoyar a las personas que desean presentar y cuenten con los requisitos necesarios para el examen de CENEVAL para acreditar los conocimientos equivalentes al bachillerato general con base en el acuerdo 286 de la SEP. Esta guía al igual que el examen de CENEVAL Acuerdo 286 para bachillerato esta realizada en 4 capítulos, conteniendo cada uno de los siguientes campos disciplinares: •
Comunicación: Capacidad de un individuo para leer críticamente, comunicar y argumentar ideas de manera efectiva y con claridad, oralmente y por escrito de manera crítica para diversos propósitos comunicativos.
•
Matemáticas: Capacidad de un individuo para aplicar, sintetizar y evaluar matemáticamente su entorno, haciendo uso de su creatividad y de un pensamiento lógico y crítico que le permita solucionar problemas cuantitativos, con diferentes herramientas matemáticas.
•
Ciencias experimentales: Capacidad de un individuo de conocer y aplicar los métodos y procedimientos de las ciencias experimentales para la resolución de problemas cotidianos y para la comprensión racional de su entorno.
•
Ciencias sociales: Capacidad con la que un individuo interpreta su entorno social y cultural de manera crítica, a la vez que valora prácticas distintas a las suyas; de este modo, asume una actitud responsable hacia los demás.
A partir de 2010 CENEVAL realizará la evaluación con base en la Reforma Integral a la Educación Media Superior (RIEMS) impulsada por la SEP, esto significa que el examen evaluará las competencias disciplinares básicas propias del nivel educativo, es decir aquellas que integran los conocimientos, habilidades y actitudes propias de los campos disciplinares en los que se ha organizado el saber. Las competencias disciplinares son enunciados que expresan los conocimientos, habilidades y actitudes de cada campo disciplinar.
4
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Comunicación
Las competencias de comunicación están orientadas a la reflexión sobre la naturaleza del lenguaje, a su uso como herramienta del pensamiento lógico y a su disfrute. 1. Identificar ordenar e interpretar las ideas, datos, y conceptos explícitos e implícitos en un texto, considerando el contexto en el que se generó y en el que se recibe. 2. Evaluar un texto mediante la comparación de su contenido con el de otros, en función de sus conocimientos. 3. Plantear supuestos sobre los fenómenos de su entorno con base en la consulta de diversas fuentes. 4. Mostrar una actitud crítica sobre el papel de la literatura y de los medios de comunicación en la recreación o la transformación de una cultura, teniendo en cuenta los propósitos comunicativos de sus distintos géneros. 5. Analizar y comparar el origen, desarrollo y diversidad de los sistemas y medios de comunicación. 6. Utilizar las tecnologías de información y comunicación para investigar, resolver problemas, producir materiales y transmitir información.
5
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
“La lectura nos permite entrar en contacto con otras maneras de ver la vida, de comprender el fenómeno de la producción de desarrollo, la vida económica o la política de un pueblo o nación”. LEER: La lectura permite la comprensión y la interpretación •
La lectura es importante porque: o
A través de ella se adquiere la mayoría de los conocimientos.
o
Es la práctica de mayor importancia en el estudio.
o
Aumenta nuestra cultura.
o
El éxito o el fracaso depende en gran parte de la eficiencia en la lectura.
o
A través de ella se transmiten los conocimientos de una generación a otra.
o
Proporciona diversas emociones.
Las lecturas se clasifican de acuerdo a: La finalidad del lector, y a la naturaleza de la lectura. Las finalidades del lector según los estudiosos de este campo, reducen a cuatro: 1.- Adquirir conocimientos sobre una materia. 2.- Profundizar o ampliar los que ya se tienen. 3.- Distraerse o pasar un rato agradable. 4.- Influir en la manera de pensar, sentir y querer. De acuerdo a los fines de su naturaleza las lecturas se clasifican en: O De estudio: Su objetivo es aprender con un método para un curso, un examen, etc. O Estructural o Analítica: Revisión general, para tener una visión de las partes y contenido de un libro. O Dinámica: Es una práctica sistemática de lectura rápida y comprensiva. O De Consulta: Sirve para ampliar los conocimientos a través del diccionario, enciclopedia y de otros textos. O De Información:
6
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Para conocer el área que le interesa al lector, por medio de folletos, revistas científicas o especializadas, periódicos, ensayos, etc. O De Investigación: Se realiza en diferentes libros y materiales para obtener información necesaria para elaborar una monografía, ensayo, informe, tesis, libro, etc. O De Recreación: Para descansar, por goce estético, buscando estimular la imaginación, la emoción, la reflexión, etc. O Crítica o Evaluativa: En ella se interpreta, se valora el conocimiento, los datos e informaciones. Es una lectura reflexiva sobre la intención ideológica del autor; para poder hacer una reseña o comentario y así elaborar un juicio o apropiarse de una nueva idea. •
Otra clasificación de las lecturas es la que se hace, atendiendo a la forma como se realiza lo lectura:
O La Lectura de Comprensión: Consiste, en leer para comprender el contenido del escrito. Saber distinguir: lo fundamental, de lo accesorio; los hechos, de las opiniones; lo comprobado, de lo discutible; los principios, de las aplicaciones; las causas, de los efectos; la condición, de lo condicionado; lo exclusivo, de lo común; lo convergente de lo divergente. O La Lectura Estructural o Analítica: Tiene por objeto conocer el libro y clasificarlo ¿Qué tipo de libro es? Explosivo... imaginativo... de divulgación... de consulta..., ¿En qué partes está dividido?, ¿Cual es su estructura formal?; ¿Qué asunto trata?; ¿Que es lo que busca expresar?, ¿Que problemas quiere mostrar o solucionar?, ¿Por qué? O La Lectura Creativa: Exige un lector capaz de crear proyectos complementarios vinculados con una obra, que sea polemista comprometido, testigo presencial capaz de expresarse a propósito de la obra por media de trabajos escritos cuyo requisito consiste en saber leer a profundidad. O La Lectura Dinámica: Consiste en mejorar el rendimiento del lector a fin de que este pueda leer provechosamente la mayor cantidad de información escrita. Es decir, que este tipo de lectura se distingue por dos características correlacionadas: Aumentar la comprensión (la capacidad de comprensión) y aumentar simultáneamente la velocidad de la lectura. REQUISITOS DE LECTURA Para el logro de una buena lectura debemos cubrir determinados requisitos como son:
7
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
•
Motivación
•
Interés
•
Atención
•
Constancia
•
Que el texto sea de nuestro nivel
•
Motivación:
2012
Para iniciar la lectura con disposición se necesita que lleguemos impulsados por algún motivo. Por ejemplo la curiosidad por conocer el estilo de algún autor. •
Interés:
Un estudiante puede tener interés en aprobar un examen y, saber que su único recurso es leer determinada obra. Hará esto con muy buena disposición. •
Atención:
Una vez que el lector esta bien motivado e interesado; se acerca a un libro, emprenderá la tarea con toda atención, fijando su mente en el contenido y desarrollo de la obra que comenzó a leer con el fin de evitar la dispersión mental. •
Constancia:
Para que la lectura tenga éxito dependerá del empeño y asiduidad con que la realicemos. •
Elegir bien el texto que vamos a leer:
Por más que haya disposición a leer un libro, si este se encuentra muy por encima de nuestra preparación intelectual, será imposible que logremos una buena lectura. El desconocimiento de los términos y situaciones que en el se manejen, hará que nosotros solo veamos figurillas de tinta, sin captar su significado. Es indispensable elegir bien lo que se lea TÉCNICAS DE LECTURA PRIMERA TÉCNICA EXAMEN Y REPASO En conclusión, todas las técnicas señalan caminos similares para llegar finalmente a la selección de ideas e interpretación del mensaje. Esta primera técnica comprende cuatro etapas: 1) Examinen el libro-.
8
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Consiste en la observación panorámica del libro para formarnos una opinión acerca de su contenido y la manera de tratarlo. Esta observación se logra leyendo la introducción o prologo, el índice general y algunos párrafos de algún tema que conozcamos mejor. 2) Formular preguntas: Con base en los Índices, subtítulos, epígrafes, etc., la finalidad es comprobar si la lectura responde o no a esas preguntas. 3) Leer: Se deberá adoptar una posición adecuada. Se podrán subrayar las ideas principales y consultar las palabras de difícil comprensión en el diccionario. 4) Repasar: Se sugiere que al terminar cada apartado o unidad, el lector repita con sus propias palabras el contenido. Si lo hace puede estar seguro de que lo ha asimilado. SEGUNDA TÉCNICA LECTURA DE COMPRENSIÓN Es aquella que en un texto (científico, técnico, escolar, etc.) nos permite captar el contenido de este, es decir, sus enunciados nucleares y sus jerarquías conceptuales. Etimológicamente Comprensión significa alcanzar o captar algo. Toda lectura en sentido estricto, debiera ser lectura de comprensión, ya que su finalidad es el significado de las palabras que describen los objetos o las ideas. El lector autentico debe ser capaz de traducir a sus términos cotidianos la experiencia que le dejo la lectura y relatarla en palabras comprensibles para el y para las personas que tengan su mismo nivel. En las obras informativas lo principal es el contenido, en tanto que en las expresivas lo que mas importa es la forma. Pasos de la lectura de comprensión: 1) Realizar una lectura general del texto. 2) Localizar e investigar los términos desconocidos. 3) Señalar las palabras clave y analizar la relación entre ellas. 4) Enunciar el tema en forma breve, clara y precise. 5) Formular preguntas para identificación de las ideas principales. 6) Resolver el cuestionario incluyendo las preguntas. 7) Elaborar el resumen con base a las respuestas. Todas las técnicas para una eficiente lectura de comprensión, tienen que referirse a la captación de los dos elementos del contenido. Aquí sugerimos las siguientes: a) Formulación de preguntas:
9
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Para captar la idea principal o el enunciado nuclear de un párrafo, ayuda mucho la formulación de preguntas adecuadas. Si podemos dar respuesta a tales preguntas, habremos captado lo que nos interesaba de este párrafo, de esa página, de ese capítulo, etc. b) Relaciones terminológicas: El otro aspecto del contenido es la jerarquía entre los conceptos. En la terminología propia de un texto -sobre todo en los científicos y en los escolares- se encuentran varios niveles. En primer nivel, o nivel básico, están los términos para cuya comprensión basta una definición ostensiva, es decir mostrar los objetos a que se refiere. Habrá términos en segundo nivel, los cuales, para ser comprendidos, necesitan ser definidos recurriendo a los del primer nivel. Asimismo, habrá términos más cargados de significado, cuya comprensión solo Serra posible recurriendo a las significaciones de otros términos de niveles anteriores. Para obtener una comprensión complete de un texto, el ideal serio jerarquizar sus conceptos haciendo explicitas los relaciones que se encuentran entre ellos. EJEMPLO Dice la física: (1) Potencia es el trabajo efectuado en la unidad de tiempo. (2) Trabajo es el desplazamiento que realiza un cuerpo por la acción de una fuerza. (3) Fuerza es toda causa capaz de producir un movimiento o modificarlo. El concepto (1) es de cuarto nivel, porque para entenderlo necesitamos “tiempo” que es de nivel tres. El concepto (2) es de nivel tres, ya que para entenderlo necesitamos conocer “desplazamiento” y “cuerpo”, que son de nivel uno y “fuerza”, que es de nivel dos. El concepto (3) es de nivel dos porque para entenderlo necesitamos conocer “movimiento” que es de nivel uno, I “términos”, “cuerpo”, “tiempo”, “movimiento” y “desplazamiento” son de nivel uno, porque para conocer su significado nos basta con una definición ostensiva. c) Mecanismos externos: Existen algunos auxiliares para la aplicación de cualquier técnica de lectura, que se conocen como mecanismos externos, por ejemplo: 1) Subrayar a lápiz algunas frases. 2) Tomar nota en algún cuaderno. 3) Hacer resúmenes y síntesis. De estos los principales son el resumen y la síntesis. Ambos auxiliares son una prueba o manifestación de que el sujeto efectivamente realicé una lectura de comprensión. El resumen consiste en un extracto del texto o párrafo leídos. El resumen debe contener los enunciados nucleares, con las propias palabras del autor.
10
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
La síntesis es una captación de más alto nivel que el resumen y consiste en dos pasos: 1) Traducir al lenguaje propio el contenido del texto. 2) Explicar las relaciones jerárquicas que hay entre los términos o conceptos de dicho texto. PARÁFRASIS. Proviene de los vocablos: Para: junto, al lado de. Phrasis: Locución. “La paráfrasis se considera una traducción que imita el texto original pero sin reproducirlo con exactitud”. “La paráfrasis es una forma de descodificación que muestra de manera objetiva como se ha comprendido la información proporcionada por un texto”. Es la interpretación personal de un texto. PARAFRASEAR: / Habilidad que requiere de gran capacidad de comprensión como lector, puesto que, comprender el mensaje de un texto, equivale a realizar la mitad del proceso comunicativo, pues la intención de quien escribe es provocar una reacción de quien recibe el mensaje. Pasos para realizar una paráfrasis: 1.- Lee cuidadosamente el texto 2.- Consulta en el diccionario las palabras que no hayas entendido. 3.- Identifica el mensaje esencial. 4.- Escribe las palabras clave del texto y cámbialas por sus sinónimos. 5.- Redacta el borrador de la paráfrasis 6.- Realiza la redacción definitiva. Ventajas que ofrece la paráfrasis como forma de expresión. •
Ayuda a explicar y comprender mejor el mensaje de un texto.
•
Contribuye a aprender más adecuadamente la información que proporciona un texto.
•
Manifiesta una forma de respuesta por parte del lector.
•
Conduce a un mejor desarrollo de las capacidades de estudio.
•
Constituye un recurso útil para la elaboración de fichas de trabajo.
•
Propicia la selección de un vocabulario adecuado.
11
EJERCICIO
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
TEXTO ORIGINAL: DEMOGRAFÍA La demografía (del gr. demos, pueblo y grapho, describir), es una importante disciplina auxiliar de la Economía que tiene por base la estadística de la población. Si para la Política Económica es imprescindible el conocimiento de los recursos naturales y de los bienes de capital disponibles, es aun más interesante saber con que potencial humano se cuenta y como esta constituido. En México, los Censos Generales de Población se levantan cada diez anos y captan diversos informes sobre las características de los individuos, como son: sexo, edad, grado de escolaridad, alimentación, ocupación, estado civil, etc. Se han realizado hasta la fecha 10 censos de este tipo, el próximo se efectuara en marzo de 1990. La información censal se presenta en un resumen general, con datos generales y por entidades federativas. Además, se publican en volúmenes especiales para cada una de las entidades de la Republica, con cifras por municipios. La elaboración de estadísticas permanentes, permite utilizar los datos sobre la población del país en los anos censales. (*) PARÁFRASIS DEMOGRAFÍA La palabra Demografía, proviene del gr. demos, que significa pueblo y grapho, describir. La Demografía es una disciplina auxiliar de la Economía, que permite conocer con que potencial humano se cuenta y como esta constituido. En México los Censos Generales de Población se realizan cada diez años y captan diversos informes sobre las características de la población. Estos datos son importantes para planear el crecimiento económico del país. RESUMEN: Es la exposición reducida de un texto. Es distinguir las ideas esenciales de un texto. PASOS PARA ELABORAR UN RESUMEN: 1.- Leer: Realice una lectura general y otra párrafo par párrafo. 2.-Comprender: Interpreta con tu vocabulario el Texto. 3.-Seleccionar: Distingue las ideas esenciales. 4.-Escribir: Enlaza adecuadamente las ideas. 5.-Comparar: Revise que el nuevo Texto, incluya las ideas del autor.
12
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
¿PARA QUE SIRVE EL RESUMEN? •
Para comprender mejor un tema
•
Pare estudiar con mayor facilidad un tema, un capitulo o una obra.
•
Poder estructurar un examen.
EJEMPLO TEXTO ORIGINAL: “Es muy bonito que las personas se ayuden entre si; ayude a su compañero. El agradecerá que comparta el cargo del matrimonio, las relaciones, los pequeños detalles de la vida diaria, y le deje tiempo para las situaciones que verdaderamente necesitan la intervención masculina. Por ejemplo, el mundo del automóvil no es tan privativo del varón como parece; colabore, señora, interesándose por el funcionamiento del coche, lo mismo que las personas, el automóvil necesita alimentación y verificaciones periódicas para obtener de el un mejor funcionamiento. Por las mañanas, revise el nivel del agua del radiador, cerciórese que la presión de las llantas es correcta, ponga en marcha el auto, pero no arranque de inmediato, espere un momento a que la bomba del aceite lubrique los componentes y, especialmente, los balines de las punterías”. RESUMEN “Ayude a su compañero, el le agradecerá que comparta la carga del matrimonio, las relaciones, los pequeños detalles de la vida cotidiana; colabore, señora, interesándose por el funcionamiento del coche. Lo mismo que las personas, el automóvil necesita alimentación y verificaciones periódicas para obtener de él un mejor funcionamiento” SÍNTESIS La palabra síntesis, proviene del vocablo latino synthesis= Composición-unión. “Composición de un todo por la reunión de sus partes” “Es el compendio de algunos aspectos de un Texto, no de todos, solo de los más importantes” “La síntesis no es detallada, es general” “La síntesis se expresa con tu propio vocabulario” Elaboración de una síntesis: Esta es muy sencilla, sigue los siguientes pasos: •
Realiza una lectura general del texto.
•
Localiza la idea básica de cada párrafo
•
Busca en el diccionario las palabras de difícil significado
13
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
•
Enlaza las ideas básicas de cada párrafo (resumen)
•
Cambia las palabras que usa el autor por las que tú utilizas. Puedes agregar un comentario.
2012
EJEMPLO TEXTO ORIGINAL: ELEMENTOS ARTÍSTICOS DEL ARTE GÓTICO (J. Manuel Lozano) El arte gótico en cuanto a sus elementos arquitectónicos, es una evolución del románico. La palabra gótico según Vasari, la utilizo por primera vez Rafael Sanzio para designar el periodo artístico anterior al Renacimiento y gótico vino a significar arte bárbaro, aunque creemos que de forma intencionada hubo una asimilación de diptongo y la palabra no debía de ser gótico, sino poético, que quiere decir mágico, pues el arte ojival parece una arquitectura producida por verdaderos magos. El arquitecto gótico ignoro la ley de la gravedad y su verdadera obsesión fue la verticalidad. Hubo un verdadero afán por la luz y procuro prescindir de los gruesos muros del románico que tenían que soportar las pesadas bóvedas de canon; para esto se sirvió de nuevos materiales como el cemento y el hierro; es por ello que el muro llego a perder su función de soporte y pudo ser sustituido por las policromas vidrieras. El origen del arte gótico esta en Francia y se inicio en los primeros anos del siglo XIII, aunque su principal característica que es la bóveda ojival de crucería ya había sido usada por los musulmanes españoles. Los elementos básicos de la arquitectura ojival son el área apuntado y la bóveda de crucería; esta acumula los empujes de peso en un punto determinado y con ello desaparecen los macizos muros románicos que serán sustituidos por amplios vanos. Pero el peso es distribuido entre los arbotantes y los estribos que rematan en pináculos. Las bóvedas descansan sobre pilares que tienen un muro central de columnas adosadas o baquetones; el numero de columnas depende del numero de nervios de la bóveda; las ventanas o vanos están limitados por un arco ojival con esbeltas columnas de fina tracería. SÍNTESIS: Según la historia del arte, el origen del arte gótico fue en Francia a principio del siglo XIII. La palabra gótico la utiliza por primera vez Rafael Sanzio para designar el periodo anterior al Renacimiento. La arquitectura gótica empleo el cemento y el hierro en las construcciones, sustituyendo los muros por luminosas vidrieras de colores. Los elementos arquitectónicos básicos fueron el arco apuntado y la bóveda de crucería. CUADRO SINÓPTICO “Es la representación grafica, objetiva y partes esenciales de un todo”. “Es una estructura de las partes importantes de un asunto”. PASOS PARA ELABORAR EL CUADRO SINÓPTICO: 1.- Realiza una lectura general del Texto
14
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
2.-Localiza los apartados (títulos, subtítulos, inicios, etc., mas importantes del tema.) 3.-Escribe las ideas principales. 4.-Relaciona los contenidos. 5.-Elabora el esquema. CONTENIDO DEL CUADRO SINÓPTICO: El Cuadro Sinóptico contiene una enumeración, una clasificación, una división. VENTAJAS DEL CUADRO SINÓPTICO: •
Permite almacenar gran cantidad de información.
•
Despierta tu creatividad.
•
Pone en práctica tu capacidad para discernir
•
Facilita el estudio.
EJEMPLO CLASIFICACIÓN DEL TEXTO (Manuel Medina Carballo) “El Texto es todo discurso escrito que giro alrededor de un tema o asunto. El tema tratado podrá estructurarse de la siguiente manera: introducción, desarrollo y conclusión. En general, los Textos se clasifican como literarios, científicos o informativos”. TEXTOS LITERARIOS Los Textos literarios son aquellos escritos en que el autor denota emotividad como producto de la realidad en que vive, así como de su ideología, de lo que percibe y siente en el momento en que escribe la obra. El escritor se expresa por media de un lenguaje metafórico y rico en expresividad. Los Textos literarios son subjetivos y cada lector interpreta esas obras desde su punto de vista particular. Clasificación: Los Textos literarios se clasifican como: narrativos, dramáticos o líricos. •
Textos narrativos. Estas son composiciones escritas en prosa. Contienen un relato sobre algún acontecimiento real o ficticio, desplazado en el tiempo y en el espado. Entre este tipo de Texto destacan la novela y el cuento.
15
•
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Textos dramáticos. Estos Textos ofrecen como panorama el conflicto entre dos o más persono/es; el desarrollo de la obra está encaminado a presentar como se desarrolla dicho conflicto y cuál es su enlace.
Los Textos dramáticos. Están escritos para ser representados y dan la idea de que los acontecimientos están ocurriendo en ese momento, aun cuando se trata de acontecimientos pasados; El relato lo hacen directamente los persono/es. Tragedia: Se habla de tragedia cuando el personaje principal resulta destruido física o moralmente. Drama: Se dice que un obra es dramática si la salvación o destrucción del personaje depende de el mismo. Comedia: Cuando en la obra predomina un fono ligero y tiene final feliz, se dice que es una comedia. •
Texto Lírico: En estos Textos se manifiestan sentimientos y emociones puestos en el yo del autor o en boca de un personaje determinado.
Clasificación: Entre los Textos líricos se encuentran: himnos, odas, elegías y canciones. TEXTOS CIENTÍFICOS Los Textos científicos desarrollan a profundidad temas acerca de la naturaleza, la sociedad y sus fenómenos y procesos; son resultados de las investigaciones de hombres especializados en las diversas áreas del conocimiento humano. Clasificación: Los Textos científicos se clasifican como: científicos, tecnológicos, Didácticos, de divulgación o de consulta. •
Los Textos científicos: Por lo general, son especialistas quienes escriben este tipo de Texto. Su lenguaje está lleno de tecnicismo y va dirigido a los científicos de las diferentes ramas del saber.
•
Textos tecnológicos: Estos se basan en los Textos científicos y explican como se aplican en forma práctica los descubrimientos y estudios realizados por la ciencia.
•
Textos didácticos: Este tipo de Textos explican, en forma gradual, los conocimientos cinéticos, para que puedan asimilarse de acuerdo con el nivel académico de los estudiantes.
•
Textos de divulgación: En estos se tratan los ternas científicos en un nivel accesible, ligero y ameno para todo tipo de lectores.
•
Textos de consulta: En estos se presentan, en forma ordenada y especializada, los conocimientos del ser humano.
16
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
TEXTOS INFORMATIVOS
Los Textos informativos se distinguen por dar la información y el enjuiciamiento público, oportuno y periódico e los hechos de interés. Clasificación: Se pueden clasificar como Textos netamente informativos o Textos de comentarios o valorativos. La noticia y el reportaje constituyen un ejemplo de lo que son los Textos informativos, y se caracterizan porque comunican acontecimientos o sucesos actuales, sin comentarlos. Los Textos de comentarios o valorativos son. Crónica, articulo y entrevista; estos, además de informar sobre los hechos actuales, ofrecen la opinión de quien lo escribe. •
•
Narrativos: o
CUENTO
o
NOVELA
Dramáticos: o
DRAMA
o
TRAGEDIA
o
COMEDIA
•
Literarios
•
Líricos:
•
o
HIMNO
o
ODA
o
ELEGÍA
o
CANCIÓN
Clasificación del texto o
CIENTÍFICOS
o
TECNOLÓGICOS
o
DIDACTICOS DE DIVULGACIÓN
El establecimiento de relaciones: • causa-consecuencia • oposición-semejanza • general-particular • Ejemplificativas • Explicativas, comparativas • Analógicas Gramática y Semántica Gramática es el estudio de la lengua, en cuanto a forma, estructura, y significado. 17
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
También se llama gramática al libro en el que se describe parcialmente una lengua (y que tradicionalmente suele incluir aspectos no lingüísticos, como la ortografía). Estos manuales, o gramáticas, se dividen a su vez dependiendo de los distintos enfoques dados por sus autores: • • •
• • •
Gramática pedagógica, cuando se centra en el uso de la lengua. Gramática descriptiva, cuando sus autores reflejan lo que la gente habla. Gramática prescriptiva, contrapuesta a la descriptiva y considerada obsoleta por las principales escuelas lingüísticas contemporáneas, trata de fijar las pautas de aquello que debe ser dicho y lo que no. Dentro de este tipo se incluyen las sucesivas gramáticas de la Real Academia Española. Gramática teórica. Gramática de un lenguaje, desde el punto de vista de un autómata, un conjunto de reglas que describen secuencias de símbolos pertenecientes a un lenguaje. Gramática formal.
Clásicamente la gramática, como estudio de la lengua, se divide en tres subdisciplinas: • • •
Sintaxis Morfología Semántica
Existen dos grandes corrientes, • •
La gramática formal La gramática funcional
Ambas difieren en muchos aspectos. Mientras que la gramática formal observa la lengua como un mecanismo lingüístico innato que existe en todo ser humano, la gramática funcional se centra especialmente en la relación entre el sistema y el uso de dicho sistema. De esta forma, la psicolingüística se desarrolla en relación con la escuela formal de Noam Chomsky, mientras que la sociolingüística está vinculada a la escuela funcional. Sintaxis La sintaxis es una subdisciplina de la lingüística. Es la parte de la gramática que se encarga de estudiar las reglas que gobiernan la forma en que las palabras se organizan en sintagmas y, a su vez, estos sintagmas en oraciones Morfología es la rama de la lingüística que estudia la estructura interna de las palabras para delimitar, definir y clasificar las unidades de la misma, las clases de palabras a las que da lugar (morfología flexiva) y la formación de nuevas palabras (morfología léxica) El morfema (llamado formante por otros autores) es la unidad mínima significativa de la primera articulación o división del signo lingüístico: la palabra. Así pues, una palabra está 18
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
constituida generalmente por dos clases de morfemas: los lexemas y los morfemas gramaticales. Los lexemas son los morfemas, comúnmente conocidos como raíces, que contienen el significado de la palabra. Constituyen casi siempre la parte invariable, autónoma y de significado más concreto de la misma. Forman la parte más numerosa del léxico y su número en toda lengua es siempre muy superior al de morfemas. Los morfemas gramaticales son las unidades que constituyen la parte variable de la palabra y cuyo significado puede ser o bien complementario o bien de carácter meramente lingüístico y gramatical. No son autónomos sino que se presentan siempre asociados a lexemas. Los morfemas gramaticales se clasifican en: Afijos, son formantes facultativos que matizan o complementan el significado básico. Todos son átonos salvo los sufijos. aniñados inutilizable
morfema derivativo: amorfemas derivativos: in-, -able
Según su posición respecto al lexema, se distinguen tres tipos de morfemas gramaticales derivativos: Sufijos: Van después del radical o lexema y antes de los morfemas dependientes gramaticales. Pueden cambiar la categoría gramatical de la palabra o el género de los sustantivos y son tónicos, es decir, cargan con el acento de la palabra. repetible sufijo: -able, transforma un verbo en adjetivo tranquilamente sufijo: -mente, transforma un adjetivo en adverbio casón sufijo: -on, transforma el género del sustantivo casa. Prefijos: Preceden al radical o lexema. Son átonos y poseen significado. Si cargan con acento son en realidad prefijoides o prefijos cercanos a los lexemas. infranqueable monosilábico
prefijo: in-, significado de negación o privación prefijo: mono-, significado de único o uno solo
Infijos o interfijos: Se colocan entre los prefijos y sufijos para evitar la cacofonía entre dos sonidos y las homonimias. Son átonos y no poseen significado. Muchos de ellos funcionaron también como sufijos pero quedaron sin significado perceptible. humareda
infijo: -ar-
Morfemas gramaticales flexivos Son formantes constitutivos que ocupan siempre la posición final de la palabra y la información que ofrecen es de tipo gramatical, como el género, el número, la persona, el modo, etc. niños
morfemas flexivos: -o, género masculino 19
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
-s, número plural
Morfemas libres o independientes Existe otra clase de morfemas denominados morfemas libres o independientes que no van unidos a ningún lexema pero confieren de significación gramatical a las palabras con las que se asocian. Los determinantes, las preposiciones y las conjunciones puede actuar como morfemas libres. Casi todos ellos son átonos. Por ejemplo, el artículo hace de morfema flexivo para el sustantivo.
Morfema cero Es aquel morfema que, aunque existe morfológicamente, no se refleja gráficamente. Por ejemplo, en la palabra hombre, el morfema de número no está presente, y esa es precisamente la razón por la cual el número es singular. Alomorfos Los alomorfos son las diferentes representaciones fónicas de un determinado morfema. Por ejemplo, -s y -es son alomorfos del morfema de número plural del español. Tambíen son alomorfos: -ble y -bil como en imposible e imposibilidad o nece- y neci como en necio y necedad. Semántica La semántica es un subcampo de la gramática y, por extensión, de la lingüística. Proviene del griego "semantikos", que quería decir "significado relevante", derivada de "sema", lo que significaba "signo". Se dedica al estudio del significado de los signos lingüísticos y de sus combinaciones, desde un punto de vista sincrónico o diacrónico. Funciones del sustantivo dentro de la oración.Sujeto: sólo pueden funcionar como sujetos los sustantivos o palabras sustantivadas. Cuando el sujeto está formado por varias palabras existe un sustantivo o palabra sustantivada que es el núcleo del sujeto. Predicado: esta función es propia del adjetivo y del verbo pero el sustantivo, al funcionar como predicado toma un valor adjetivo. Por ejemplo: Juan es profesor. Atributo: el atributo es sustantivo que forma parte del predicado de una oración en la que el verbo es ser, estar o parecer. La estructura sería esta Sujeto + verbo (ser, estar, parecer) + atributo Ejemplo: Las tardes tienen armonía. 20
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Tipos.Comunes: los nombres comunes son aquellos que indican la clase de objeto a que pertenece lo designado. Ej: casa, perro, hombre. Propios: aquellos mediante los cuales se identifica a un ser, un individuo, bien entre los de su clase, bien por constituir el único individuo de una clase. Ej: Jaén, Nicolás. Tradicionalmente se consideran accidentes del nombre el género y el número a los que puede añadirse la comparación. En el caso concreto del español no existe, en realidad, la declinación y, por lo tanto, no hay casos, si exceptuamos las formas de los pronombres personales. El género.- Los sustantivos pueden ser, según ya hemos indicado, sólo masculinos o femeninos (gato, gata). Sin embargo, existen nombres que tienen género común, es decir, la misma palabra puede servir para referirse a personas de sexo masculino o femenino. Ej: testigo, estudiante. Para definir si se refiere a un hombre o a una mujer se utiliza el artículo. Ej: el amante, la amante. El número.- Existen los objetos llamados contables o discretos, como libros o plumas, que se muestran como una multiplicidad de unidades y por otra los llamados compactos o masivos como el trigo o la leche, en los cuales no puede percibirse la suma de unidades. La idea de plural se manifiesta por medio de los sufijos -s o -es. No todos los sustantivos suelen tener plural. Los nombres propios y los de objetos únicos sólo pueden tenerlo en casos especiales, así como los nombres abstractos como la tolerancia y la sabiduría. Existen algunas palabras, más conocidas como colectivos que se refieren a lo singular y lo plural a la vez. Ej: tijeras, pantalones. Son formas en plural que hacen referencia a una unidad. El adjetivo es aquella parte de la oración que se junta al sustantivo para calificarlo o no presenta una forma externa que le distinga de la categoría más afín, que es el sustantivo. Entre una y otra clase de palabras o semantemas existe un constante movimiento: substantivos que se hacen adjetivos, y a la inversa. El adjetivo se caracteriza por su dependencia del sustantivo y de ahí su función fundamental de atributo, junto a la de predicado nominal. Colocación del adjetivo.- Cada lengua tiene sus normas para la colocación del adjetivo. En español, se ha dicho que el adjetivo calificativo tiene un valor subjetivo, emotivo, mientras que en la posición contraria restringe la significación del sustantivo, o sea actúa como determinativo. Por ejemplo, no es lo mismo decir Saqué los cuadros valiosos que decir En la sala había cuadros valiosos. En el primer caso se refiere a que saqué sólo los cuadros 21
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
valiosos porque no todos los cuadros lo eran y en el segundo caso se indica que todos los cuadros de la sala son valiosos. Tipos de adjetivos.- En castellano se distingue entre calificativos y determinativos. Veamos en qué se diferencian. -Especificativo: en la oración Ana hizo un ramo con las rosas blancas de su jardín el adjetivo blancas califica a rosas distinguiéndola del resto (sólo las rosas de color blanco). Si quitamos el adjetivo, la oración pierde significado. El adjetivo especificativo es el que expresa una cualidad necesaria del nombre que lo diferencia de los demás. Suele ir detrás del nombre. El jugador hábil marcó un gol. -Explicativo: Ana paseaba sobre la blanca nieve. En la primera oración el adjetivo blanca va delante del nombre para llamar la atención; ya que indica una cualidad propia de la nieve (la nieve siempre es blanca) y además, si quitásemos el adjetivo no se alteraría el significado de la oración. El adjetivo explicativo o epíteto es el que expresa una cualidad no necesaria del nombre, pero que añade mayor belleza e interés literario al texto. Suele ir antepuesto al nombre. El hábil jugador marcó un gol. El pronombre es la parte de la oración que sustituye al nombre, sin embargo, no es una parte de la oración en el mismo sentido que lo son los sustantivos, el adjetivo, el verbo o el adverbio. Los pronombres se nos presentan en clases más perfiladas e independientes de las que hemos visto al estudiar los sustantivos y los adjetivos. Distinguiremos los personales, posesivos, demostrativos, relativos, interrogativos e indefinidos. Pronombres personales.- La denominación personales sólo está parcialmente acertada, ya que existen formas que no designan a personas necesariamente, o a seres personificados. En español las dos primeras personas son realmente personales, pero no la tercera, que puede designar también seres no personales. Se basan en las personas que pueden intervenir en el coloquio, que son por lo menos tres: la que habla, aquella a quien se habla, y aquella de quien se habla y sus respectivos plurales. Los pronombres demostrativos se caracterizan por su función deíctica o mostrativa que les es esencial. 22
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Los pronombres demostrativos sirven para nombrar y distinguir elementos que ya se han mencionado anteriormente, pero sin repetirlos. La forma de esos pronombres demostrativos varía según el género y el número, así como de los seres o las cosas que representan. La función que ocupan en la frase no conlleva ningún cambio en su forma.
Llámense relativos los demostrativos que reproducen un concepto anterior, y sirven especialmente para enlazar una proposición con otra. El de más frecuente uso es que, adjetivo de todo género, número y persona. En el navío que viene de Londres es de género masculino, número singular y tercera persona; en vosotras que me oís es de género femenino, numero plural y segunda persona. Debemos siempre concebir en él, no obstante su terminación invariable, el género, número y persona del sustantivo reproducido, que se llama su antecedente. El relativo que.- Que puede ser sujeto, término y complemento. En todos los ejemplos anteriores es sujeto; es complemento acusativo en la casa que habitamos, y terminó en las plantas de que está alfombrada la ribera. La proposición especificativa se llama subordinada, y la proposición de que ésta depende subordinante. La proposición explicativa se llama incidente, y la de que ésta depende principal. Las proposiciones incidentes son en cierto modo independientes, y así es que sin alterar en nada el sentido del anterior ejemplo, se podría decir: Las señoras deseaban descansar y se retiraron. Se llama Oración toda proposición o conjunto de proposiciones que forma sentido completo: de que está alfombrada la ribera es proposición perfecta, pero no es oración. Los pronombres relativos pasan a interrogativos acentuándose. ¿Qué pasajeros han llegad?: el qué es aquí adjetivo y forma con pasajeros el sujeto de la proposición. ¿Qué ha sucedido?; el qué hace de sujeto y es un sustantivo, porque envuelve el significado de cosa o cosas. De lo dicho se sigue que un complemento puede tener por término, no sólo un sustantivo, un predicado, un adverbio, un complemento, sino también una proposición interrogativa 23
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
indirecta; pero es porque las proposiciones interrogativas indirectas hacen en la oración el oficio de sustantivos. El relativo quién.En lugar de las expresiones: el que, las que, los que, las que; empleamos muchas veces el sustantivo quien, quienes, cuando el relativo se refiere a persona o cosa personificada: "la culpa no fue tuya sino de quien te aconsejaba". Quien se hace interrogativo acentuándose. Equivale, entonces a qué persona, y puede ser sujeto, predicado o término: ¿quién ha venido?, ¿Quién era aquella señora?, ¿A quién se llama?, ¿A quién llaman? El relativo cuyo.- Cuyo, pronombre adjetivo, que es un tiempo posesivo y relativo, equivale a de que o de quien, en el sentido de posesión o pertenencia; como suyo equivale a de él, de ella, de ellos, de ellas, de ello: "El árbol, cuyo fruto comimos...". Se hace interrogativo acentuándose: ¿Cuyo es aquel hermoso edificio? Esta práctica es extremadamente limitada, ya porque cuyo debe referirse a personas, ya porque sólo tiene cabida en predicados que modifiquen el verbo ser. Los pronombres interrogativos, junto con los indefinidos, presentan características peculiares. Los pronombres interrogativos son usados en la interrogación parcial, o sea, aquella en la que se pregunta por el sujeto, el predicado nominal o los complementos. Algunas lenguas distinguen formas interrogativas animadas, es decir, relativas a seres animados, e inanimadas, como restos de un antiguo estado de cosas en cuanto al género, en el que se distinguen de un modo general, entre dichas categorías. En español, quién, por ejemplo, sólo se emplea con personas y, a la inversa, qué se usa solamente con cosas o ideas. La distinción entre masculino y femenino no existe. • • • • • • •
Cómo Quién Dónde Por qué Qué Cuando Cuanto
También encontramos otras formas interrogativas como Para quién o Para qué.
24
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Los numerales son un tipo de partículas que hay que relacionar con los indefinidos de cantidad y, por otra con los adjetivos calificativos, de cuales se diferencian porque en lugar de expresar cualidad indican cantidad. En realidad forman un grupo dentro de ellos. Tipos.- Antes de explicar la verdadera naturaleza de los numerales es mejor identificar todas las clases que hay. Numerales ordinales: se confunden con los adjetivos calificativos. Se pueden colocar o bien delante o detrás del sustantivo y presentan variaciones de género y número según el sistema al que acompaña. Ejemplos: la última de la fila suspende siempre El primer autobús sale a las 10.00 horas Numerales cardinales: tienen un valor puramente adjetivo: uno, dos, tres, etc. Sin embargo, cuando nos referimos al número por sí mismo, el tres, el cuatro, aquí nos encontramos con un sustantivo. No presentan variaciones de género ni número. Ejemplos: En la caja había tres cartas En los dos casos se repite la terminación CARDINALES
ORDINALES 1. primero 1 uno 40 cuarenta 2. segundo 2 dos 50 cincuenta 3. tercero 3 tres 60 sesenta 4. cuarto 4 cuatro 70 setenta 5. quinto 5 cinco 80 ochenta 6. sexto 6 seis 90 noventa 7. séptimo 7 siete 100 cien 8. octavo 8 ocho 101 ciento uno 9. noveno 9 nueve 200 doscientos, as 10. décimo 10 diez 300 trescientos, as 11. undécimo 11 once 400 cuatrocientos, as 12. duodécimo 12 doce 500 quinientos, as 13. decimotercero 13 trece 600 seiscientos, as 14. decimocuarto 14 catorce 700 setecientos, as 15. decimoquinto 15 quince 800 ochocientos, as 16. decimosexto 16 dieciséis 900 novecientos, as 17. decimoséptimo 17 diecisiete 1.000 mil 18. decimoctavo 18 dieciocho 2.000 dos mil 19. decimonoveno 19 diecinueve 55.000 cincuenta y cinco mil 20. vigésimo 20 veinte 1.000.000 un millón 25
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
21 veintiuno 2.000.000 dos millones 22 veintidós 1.000.000.000 mil millones 23 veintitrés 24 veinticuatro 25 veinticinco 26 veintiséis 27 veintisiete 28 veintiocho 29 veintinueve 30 treinta 31 treinta y uno 32 treinta y dos Determinantes partitivos: señalan una parte de la unidad: medio, doceavo, cuarto... Multiplicativos: doble, triple, cuádruple... Distributivo: sendos. Dual: ambos. El artículo se antepone al sustantivo para anunciar su género, su número y su función gramatical. Con frecuencia el artículo determina la extensión del sustantivo. Pongamos un ejemplo, las expresiones comprar libros y comprar los libros. En el primer caso queda completamente indeterminado el sustantivo libros; no sabemos a cuántos libros nos referimos; en cambio, cuando decimos comprar los libros, entendemos que se trata de libros conocidos por la persona a quien dirigimos la palabra. Las formas del artículo son: el, la, lo, para el masculino, femenino y neutro del singular, respectivamente: los, las, para el plural masculino y femenino. Este artículo se llama determinado. Delante de nombres femeninos que empiezan por a, á o ha, usamos la forma el; por ejemplo: el hada, el agua, el áncora. Se usa también el artículo indeterminado: un, una, unos, unas. Se llama así porque delimita el concepto del sustantivo mucho menos que el artículo determinado. Basta fijarse en la diferencia que media entre te entregaré un libro y te entregaré el libro. En el primer caso puede ser un libro cualquiera y en el segundo es un libro que ambos sujetos conocen. Determinados Indeterminados Masculino Femenino Neutro Masculino Femenino el la lo uno una los las unos unas
26
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El verbo es una parte de la oración que expresa acción, presión o estado. El concepto de verbo aparece unido a una importante función dentro de la oración, el predicado. Por ello, la presencia del verbo es indispensable para formar una oración. El verbo suele combinarse con determinados morfemas que indican el tiempo, modo, aspecto, voz, número y persona. La persona es común a los pronombres personales, el número es común al nombre. El tiempo, el modo y el aspecto son en español sólo verbales y también la voz, aunque no existe para ésta un medio de expresión tan claro. Tipos de verbos.- Al igual que los sustantivos existen verbos simples y compuestos (beberentresacar); primitivos y derivados (dar, abofetear) derivados de otras categorías: de sustantivos (martirizar); de adjetivos (endulzar) y también de otros verbos (reconstruir). Sin embargo, existen otras distinciones más importantes desde el punto de vista de la forma gramatical. Verbos transitivos e intransitivos: los primeros admiten un complemento directo a diferencia de los segundos. Una cosa a tener en cuenta en cuenta es que un verbo no puede considerarse ni transitivo ni intransitivo aisladamente; sólo su función en la frase le da dicho carácter. Pongamos algunos ejemplos: llevar, decir y hacer son verbos transitivos que siempre necesitan de un complemento directo, ya que ninguna expresión de llevar, decir o hacer, por sí sola, es completa. Otros verbos, como comer o beber tienen posibilidades transitivas e intransitivas. Verbos copulativos y auxiliares: el verbo copulativo sirve esencialmente para unir el sujeto con el predicado nominal. Los verbos copulativos por excelencia son ser, estar y parecer. Con ser, el predicado se expresa como una cualidad del sujeto y con estar es un estado lo que se expresa.
Ejemplos: El canario es amarillo La anciana está sentada Los verbos transitivos pueden desempeñar, en algún caso, una función copulativa, por ejemplo, tengo a mi padre enfermo equivale a mi padre está enfermo. Los verbos auxiliares son aquellos que se unen al participio, gerundio e infinitivo formando así perífrasis verbales. Ej: ir a comer, tener que estudiar. La lengua española es rica en construcciones perifrásticas con verbos auxiliares, que le permiten completar la conjugación que podríamos llamar normal en la expresión de ciertos morfemas (voz, aspecto y tiempo) Los reflexivos: a diferencia de las otras modalidades estos verbos se forman con un verbo y la partícula se. Hay que tener claro que no todos los verbos son capaces de tener la forma reflexiva. Ejemplos: lavarse, peinarse y ducharse. 27
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Los accidentes del verbo, que son los siguientes: el tiempo, el número, la persona y el modo. El tiempo.- Los tiempos gramaticales son las formas que el verbo toma para dar a conocer el momento en que sucede lo que el verbo significa; ej.: ayer bebí; ahora duermo; mañana trabajaré. Los tiempos verbales se dividen en dos: simples o compuestos. -Tiempos simples: son los que constan de una sola forma verbal; ej.: como, cantaré, cerraría. -Tiempos compuestos: son los que tienen una forma verbal auxiliar que normalmente es el haber y del participio del verbo que se conjuga; ej.: he constituido, has dicho, había realizado. Hay tres tiempos que son fundamentales, y son: presente, pretérito y futuro. -Presente indica la acción o el estado actual; ej.: ahora viajo. -Pretérito da a conocer la acción o el estado en un pasado; ej.: ayer fuí. -Futuro expresa una acción o estado que va a venir; ej.: mañana responderé.
Tiempos gramaticales.MODO INDICATIVO: Presente (tú haces) Pretérito perfecto compuesto (tú has hecho) (Antepresente) Pretérito perfecto simple (tú hiciste) (Pretérito) Pretérito anterior (tú hubiste hecho) (Antepretérito) Futuro simple (tú harás) Futuro anterior (tú habrás hecho) (Antefuturo) Pretérito imperfecto (tú hacías) (Copretérito) Pretérito pluscuamperfecto (tú habías hecho) (Antecopretérito) Condicional (tú harías) (Pospretérito) Condicional compuesto (tú habrías hecho) (Antepospretérito). MODO SUBJUNTIVO Presente (tú hagas) Pretérito perfecto (tú hayas hecho) Pretérito imperfecto (tú hicieras o tú hicieses) Pretérito pluscuamperfecto (tú hubieras o hubieses hecho) Futuro (tú hicieres) Futuro anterior (tú hubieres hecho). MODO IMPERATIVO 28
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Uno sólo, el de órdenes. (haz / no hagas).
Existen las formas impersonales también. (Es decir, no conjugadas en persona, ni tiempo). Infinitivo: HACER Participio: HECHO Gerundio: HACIENDO. El número.- Es la variación del verbo según se refiere a un o a varios sujetos. En español encontramos singular y plural. Singular si el verbo se refiere a un solo sujeto; ej.: yo canto, tú escribes, Marta estudia, El gato come. Plural si el verbo se refiere a más de un sujeto; ej.: nosotras cantamos, vosotros escribís, Marta y José estudian, El gato y el perro comen. La persona.- Sirve para señalar la parsona que realiza la acción del verbo. Primera, segunda y tercera persona. El verbo está en primera persona (1a) cuando éste se refiere a la persona que habla, ej.: yo hablo. El verbo está en segunda persona (2a) cuando éste se refiere a aquélla con la que se habla, ej.: tú estudias. El verbo está en tercera persona (3a) cuando éste se refiere a aquélla persona de quien se habla, ej.: Pedro come La voz.- Sirve para señalar si la acción del verbo es realizada por el sujeto o éste recibe la acción En español hay voz activa y voz pasiva. El verbo está en voz activa cuando el sujeto realiza la acción que el verbo expresa; ej.: Ernesto camina. El verbo está en voz pasiva cuando el sujeto recibe la acción expresada por el verbo; ej.: Cien años de soledad fue escrito por Gabriel García Márquez; América fue conquistada por los europeos. Veamos las tres formas nominales del un verbo. Infinitivo.- El infinitivo es un sustantivo verbal. Puede desempeñar en la oración todos los oficios que corresponden al sustantiv; más no por ello deja de tener cualidades y empleos propios del verbo, con la única restricción de no poder expresar por sí mismo tiempos y personas. 29
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
a)El infinitivo como nombre: puede ejercer dos funciones o bien como sujeto o como complemento directo. El comer bien es importante para la salud Me gusta ir de compras b)El infinitivo como verbo: -puede ser activo o pasivo: no me gusta esperar, no me gusta ser esperado -Admite pronombres enclíticos: he venido a verte Gerundio.- El gerundio expresa coincidencia temporal o anterioridad inmediata respecto al verbo principal. En castellano el gerundio tiene las siguientes funciones: -De adverbio: no me hables gritando -De adjetivo: vi a Juana paseando, esto es, que paseaba. -Durativo: modal del verbo: la fortuna va guiando nuestros pasos. Participio.- El participio es un adjetivo verbal. A causa de esta doble naturaleza puede construirse como adjetivo independiente, o entrar en construcciones total o parcialmente asimilables a las del verbo conjugado. Por su forma puede ser regular, cuando termina en -ado, -ido (abandonado, pulido); irregular, si tiene otra terminación (abierto, escrito, hecho). Numerosos verbos presentan un participio regular y otro irregular se emplea como adjetivo y el regular para formar los tiempos compuestos con el verbo haber, por ejemplo agua bendita y el obispo ha bendecido a los fieles. Todas las palabras que se añaden al verbo para modificarlo, es decir, para expresar alguna cualidad o determinación de la acción verbal, reciben el nombre de adverbios. Estas partículas pueden modificar a un verbo, un adjetivo o a otro adverbio. En la oración funcionan como circunstanciales o formando parte de modificadores. Son invariables, ya que no tienen género ni número. Veamos algunos ejemplos: -Modifican al adjetivo: Este jardín es muy hermoso La casa es demasiado alta -Modifican al verbo Juan trabaja bien El nuevo jefe viene hoy Tipos.- Según su significación, los adverbios pueden ser de lugar, de modo, de tiempo, de cantidad, de orden, de afirmación, de negación y de duda. Ejemplos:
30
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
De lugar: aquí, allí, cerca, lejos, dentro, fuera, encima De tiempo: hoy, ayer, mañana, antes, después, entonces, luego De modo: bien, mal, así, despacio, veloz, buenamente, fácilmente De cantidad: más, bastante, mucho, poco, tan, tanto De orden: primeramente, últimamente, sucesivamente De afirmación: sí, ciertamente, también, verdaderamente De negación: no, nunca, jamás, tampoco De duda: acaso, quizá o quizás Existen numerosos adjetivos que pueden ejercer la función de adverbios, como claro, recio, alto, limpio. Es fácil determinar en cada caso si les corresponde una u otra función, dependiendo de si modifican a un sustantivo o a un verbo. Por ejemplo, claro será adjetivo en lenguaje claro, agua clara, pero será adverbio en hablar claro, escribir claro. Muchos adverbios se forman añadiendo a la forma femenina de los adjetivos la terminación -mente: fácilmente, claramente, etc. Los adverbios donde, cuando, cuanto y como equivalen a pronombres relativos; por ejemplo: el barrio donde vivimos es el barrio en que vivimos. Por esto se llaman adverbios relativos. Lo mismo que los pronombres de su clase, los adverbios relativos llevan acento cuando figuran en oraciones interrogativas o exclamativas: ¿cómo está usted?, ¿cuándo has llegado? Si tenemos dos palabras como venir y casa aisladamente, se observa que una significa una acción y la otra una realidad, pero sin relación alguna entre ellas. No obstante, si queremos conectar ambos significados en una expresión determinada usaremos una serie de elementos invariables que posee la lengua para expresar distintas relaciones. Tales elementos son los enlaces preposicionales, la preposición. De este modo, podemos crear expresiones como venir de casa, venir a casa, venir por casa, venir hacia casa. Las preposiciones no solamente unen un verbo (venir) y un sustantivo (casa) como hemos visto en los ejemplos anteriores. También pueden unir dos sustantivos casa de ladrillos, tienda de coches; o un adjetivo y un sustantivo, como en la expresión sencillo en gustos. De este modo, podemos decir que la función principal de las preposiciones es enlazar cualquier palabra con un sustantivo que le sirve de complemento. Las tradicionales preposiciones castellanas son: a, ante, cabe, con, contra, de, desde, en, entre, hacia, hasta, para, por, según, sin, sobre y tras. Conjunciones.- Las conjunciones son los elementos invariables de la lengua capaces de enlazar oraciones creando distintas relaciones entre ellas. También a veces se puede observar en la expresión que las conjunciones unen palabras aisladas, pero en realidad éstas se pueden considerar como la simplificación expresiva de auténticas oraciones enteras que subyacen en tales palabras. 31
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Las conjunciones pueden ser coordinantes o subordinantes, según establezcan una u otra relación entre las oraciones unidas por ellas. Coordinantes.- Dentro de las conjunciones coordinantes encontramos cinco variantes. -Adversativas o correctivas: denotan oposición o diferencia entre las oraciones enlazadas: mas, pero, aunque, sino, sin embargo. -Consecutivas: presentan a una de las oraciones como consecuencia de la otra: pues, pues que, supuesto que, puesto que, luego. -Copulativas: denotan simple enlace sin matices especiales: y, e, ni. -Distributivas: bien...bien, ya...ya -Disyuntivas: expresan contradicción: o, u. Subordinantes.- Dentro de las conjunciones coordinantes encontramos ocho variantes. -Causales: indican que una de las oraciones es causa o motivo de la otra: porque, pues, pues que, ya que, como, como que. -Comparativas: así como, así también, de modo que, tal como. -Concesivas: expresan en la subordinada una objeción o dificultad para que se efectúe lo que indica la principal, pero este obstáculo no impide la realización del hecho: aunque, por más que, a pesar de, que. -Condicionales: la subordinada expresa la condición para que se realice lo que se dice en la principal: sí, con tal que, a condición. -Copulativas: enlazan las subordinadas sustantivas. La única que hay es que. -Finales: expresan en la subordinada el fin de la principal: a que, para que, a fin de que. -Modales: entra en su composición un adverbio de modo: conforme, como, según, de modo que, de manera que. -Temporales: entra en la composición de algunas un adverbio o expresión de tiempo: cuando, aun no, no bien, desde que, luego que, antes que, después que, mientras que. Concordancia y discordancia de las partes de la oración Sujeto y predicado: elementos de la oración
32
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
La oración: "La nave espacial se posó sobre la colina", es una proposición. Su primer miembro, "La nave espacial", indica aquello de lo se va a decir algo. Mientras que el segundo miembro,"se posó sobre la colina", es lo que se dice de la nave espacial. Fíjate en las siguientes proposiciones: SUJETO: • El mendigo • La amabilidad • Marcela y Francisco • La botella misteriosa • Los cinco jinetes del viento PREDICADO: • vestía un pantalón raído. • no cuesta dinero. • se asustaron con el temblor. • fue arrastrada por las olas. • cabalgaron hacia el horizonte. En los cinco ejemplos anteriores, se nombran personas, objetos o cualidades (Sujeto) y se dice alguna cosa de ellos: la forma de vestir, lo que significan, lo que sienten, lo que les pasa, lo que hacen (Predicado). • •
SUJETO: MIEMBRO DE LA ORACIÓN DEL QUE SE DICE ALGO. PREDICADO: LO QUE SE DICE DEL SUJETO.
El sujeto puede estar ubicado al inicio de la oración o en cualquier otra posición dentro de ella. Observa con atención: ¿De quién se dice algo? De "los hombres-rana" (Sujeto). ¿Qué se dice de ellos? Que "encontraron el barco sumergido en el fondo del mar muchos años después" (Predicado). Cuando el sujeto se ubica al medio de la oración, el predicado queda partido en dos segmentos: Veamos otros ejemplos: Sujeto Predicado No olvides que: • AL CAMBIAR EL SUJETO DE POSICIÓN, NO CAMBIA SU CONDICIÓN DE SUJETO. Organización Interna del Sujeto:
33
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El Sujeto está formado por un elemento principal llamado núcleo, que puede ir acompañado de otras palabras o frases que lo determinan. El núcleo es indispensable, sin él no hay sujeto. Los determinantes, en cambio, no siempre están presentes: son opcionales. Ejemplos: (Det.= Determinante; N= Núcleo) • EL NÚCLEO ES EL UNICO ELEMENTO CONSTANTE • DEL SUJETO. • UN SUJETO PUEDE TENER MÁS DE UN NÚCLEO. • LOS DETERMINANTES DEL NÚCLEO NO SIEMPRE ESTÁN PRESENTES. El núcleo del sujeto cumple siempre una función sustantiva (F. Sust.). La función sustantiva corresponde por lo general a la palabra sustantivo. La palabra sustantivo: En la novela "Cien Años de Soledad" (Gabriel García Márquez) se dice, refiriéndose a una época remota, "En aquellos tiempos, las cosas carecían de nombre y para indicarlas, había que señalarlas con el dedo”. Esta afirmación nos permite comprender la importancia de contar con palabras que faciliten asignarle un nombre a las cosas. Cada vez que nombramos algo, usamos un sustantivo. Lee los siguientes ejemplos: • Sobre el mar, vuelan las gaviotas. • El amor nos hace ser generosos. • Mauricio estudia en su pieza. Todas las palabras en negrita son sustantivos. Con ellas hemos nombrado un elemento del paisaje (el mar); un ave (gaviota); un sentimiento (amor) y le hemos dado nombre propio a una persona (Mauricio). En realidad, los seres humanos le asignamos nombre a todo lo que está a nuestro alrededor. Sentimos la necesidad de nombrar las cosas para diferenciarlas. Cada vez que conocemos algo nuevo, preguntamos ¿Cómo se llama? Y cuando sabemos su nombre nos parece más cercano y familiar. Organización interna del predicado Al igual que el Sujeto, el Predicado tiene un elemento central y constante, llamado núcleo del predicado. En forma opcional, éste puede estar acompañado de determinantes. Veamos algunos ejemplos: El núcleo del predicado indica lo que hace, dice, siente o piensa el sujeto. Cumple siempre la función verbal, mediante la palabra verbo. Los verbos expresan acción, sentimientos, estados y existencia respecto de distintas personas y tiempos. Algunos verbos son: Cantar, sufrir, jugar, hacer, etcétera. De todo lo aprendido no puedes olvidar: • La proposición es una oración que consta de Sujeto y Predicado. • El Sujeto y el Predicado están siempre formados por un elemento central y constante, llamado núcleo. 34
• •
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El núcleo del sujeto cumple la función sustantiva, y el núcleo del predicado cumple la función verbal. Tanto el núcleo del sujeto como el del predicado pueden estar acompañados por determinantes.
Para preguntar, podemos ubicar la acción al inicio de la oración, o utilizar una palabra que indica interrogación. Leamos estos ejemplos: -¿Irás al cumpleaños de Enrique? -¿Encontraste el mensaje que te dejó tu papá? Estas oraciones interrogativas comienzan por la acción. Ahora, analicemos estas otras: -¿Cuál es tu personaje histórico favorito? -¿Dónde está la clave?. Las oraciones interrogativas utilizaron las palabras cuál y dónde. • Algo que no puede faltar en este tipo de oraciones son los signos de interrogación delante y al final de ellas: ¿ ... ? Estos signos permiten identificar una pregunta. Algunas palabras que sirven para hacer preguntas son: ¿Qué...? ¿Quién...? ¿Cómo...? ¿Cuándo...? ¿Dónde...? ¿Por qué...? Las oraciones interrogativas se contestan con oraciones aseverativas, que pueden ser afirmativas o negativas. • Las oraciones exclamativas expresan sorpresa o admiración. Llevan siempre signo de exclamación al inicio y al término de ellas. ¡ ... ! ¿Por qué se llaman oraciones exclamativas? Por el tono de vos que utilizamos al decirlas. Tomamos aire y luego hablamos con otro ánimo.
Te presentamos algunos ejemplos: -¡Qué linda está la Luna! -¡Nos vamos de vacaciones! • Las oraciones imperativas tienen la particularidad de indicar una orden, un mandato o una prohibición, no llevan escrito el sujeto. Analicemos las siguientes oraciones imperativas: -Se prohíbe fumar en este recinto. -No pisar el pasto. 35
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Ambas oraciones indican que se prohíbe realizar una determinada acción. Veamos otras oraciones imperativas: -Salgamos rápido. -Quítate el delantal. Estas oraciones nos están indicando una orden y mandato. Algunas veces, para que la orden no sea tan directa, se utilizan palabras como querer, rogar o desear. Estos son ejemplos: -Desearíamos que los pasajeros se abrocharan sus cinturones. -Quisiera que nadie se fuera sin entregar el trabajo Según si tiene o no verbo, es posible clasificar a la oración en dos tipos: •
•
Oración unimembre: grupo de palabras que posee un significado, es decir, que transmite información, y no tiene verbo. Tiene una sola parte, o sea, está formada por un solo miembro. Por eso se le llama unimembre Dentro de las oraciones unimembres, están todas las fórmulas de cortesía: expresiones que utilizamos a diario para saludar, despedirse, o simplemente ser correctos con lo demás. Por ejemplo: hola, buenos días, buenas noches, hasta luego, muchas gracias, por favor, etcétera. Oración bimembre: grupo de palabras con significado, transmite una información completa, y que además posee verbo. Por esto, puede dividirse en sujeto y predicado, que son las dos partes o miembros por las que está formada. Ello le da su nombre de bimembre, donde bi quiere decir dos, y membre, miembro.
Complementos en la oración El sujeto tiene los siguientes complementos: • calificativo: integrado por uno o varios adjetivos calificativos o determinativos. Otorga una cualidad, peculariedad o manera de ser a la palabra que modifica. Ejemplo: Mi papá llegará pronto. • determinativo o de especificación: formado por un sustantivo que se une al sujeto por medio de una preposición. Ejemplo: Ese computador es muy lento. • explicativo: meciona datos incidentales, aclara y puede suprimirse sin que varíe el sentido de la oración. Va siempre entre comas. Ejemplo: Cristóbal Colón, osado navegante, descubrió América. El verbo tiene los siguientes complementos: 36
•
•
•
• •
•
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
directo: recibe el nombre de complemento directo la persona o cosa que es el objeto de la acción del verbo. Solamente llevan complemeto directo los verbos que denotan acción , son transitivos o activos.Las oraciones se construyen con la preposición a o sin preposición. Ejemplos: Amo a mis padres, Llevaremos los libros. Para identificar el complemento directo basta con preguntar al verbo de la oración: ¿qué?, ¿quién?, ¿a quién?. Ejemplo: A quién amo, amo a mis padres. ¿Qué llevaremos?, los libros. indirecto: indica a las personas o cosas que reciben la consecuencias, es decir, el fin, daño o provecho de la acción del verbo. Se construye con las preposiciones a o para. Puede llevar otros complementos o puede construirse solo. Ejemplos: Llevo un libro a mi amigo; Traigo flores para mi madre; Los vecinos compraron una bandera para la escuela. Para identificar el complemento indirecto se hacen las siguientes preguntas: ¿a quién?, ¿para quién?, ¿para qué?. Ejemplos:¿A quién llevo mi libro?, a mi amigo. ¿Para quién traigo flores?, para mi madre. circunstancial: indica las diversas circunstancias de tiempo, de lugar, de modo, de causa, de cantidad, de compañía, de fin, de medio, etc. Llegaré de mañana (de tiempo) Llora con ganas (de modo) Puso el libro sobre la mesa (de lugar) Llegaré con mi amigo (de compañía) Respondía la fuerza (de causa) El tren salió para Chillán (de rumbo o destino) Mi amigo llegó a Temuco (de procedencia) Los complementos circunstanciales pueden, en otros casos, construirse sin preposición: Estudió todo el día (de tiempo) Lo esperó la vida entera (de tiempo) Los adverbios o locuciones adverbiales ejercen las funciones de complementos circunstanciales: Habla lentamente ( de modo) Trabaja poco (de cantidad) Te esperaré aquí (de lugar) Llegó temprano (de tiempo)
Internet como medio de información y comunicación Este es solamente un artículo, recomendamos visitar los enlaces que vienen en él y así poder poner en práctica el uso de la red. La Web 2.0 es la representación de la evolución de las aplicaciones tradicionales hacia aplicaciones web enfocadas al usuario final. El Web 2.0 es una actitud y no precisamente una tecnología. 37
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
La Web 2.0 es la transición que se ha dado de aplicaciones tradicionales hacia aplicaciones que funcionan a través del web enfocadas al usuario final. Se trata de aplicaciones que generen colaboración y de servicios que reemplacen las aplicaciones de escritorio. Es una etapa que ha definido nuevos proyectos en Internet y está preocupándose por brindar mejores soluciones para el usuario final. Muchos aseguran que hemos reinventado lo que era el Internet, otros hablan de burbujas e inversiones, pero la realidad es que la evolución natural del medio realmente ha propuesto cosas más interesantes como lo analizamos diariamente en las notas de Actualidad. Y es que cuando el web inició, nos encontrábamos en un entorno estático, con páginas en HTML que sufrían pocas actualizaciones y no tenían interacción con el usuario. Pero para entender de donde viene el término de Web 2.0 tenemos que remontarnos al momento en que Dale Dougherty de O’Reilly Media utilizó este término en una conferencia en la que compartió una lluvia de ideas junto a Craig Cline de MediaLive. En dicho evento se hablaba del renacimiento y evolución de la web. Constantemente estaban surgiendo nuevas aplicaciones y sitios con sorprendentes funcionalidades. Y así se dio la pauta para la Web 2.0 conference que arranca en el 2004 y hoy en día se realiza anualmente en San Francisco, con eventos adicionales utilizando la marca en otros países. En la charla inicial del Web Conference se habló de los principios que tenían las aplicaciones Web 2.0: • • • • •
La web es la plataforma La información es lo que mueve al Internet Efectos de la red movidos por una arquitectura de participación. La innovación surge de características distribuidas por desarrolladores independientes. El fin del círculo de adopción de software pues tenemos servicios en beta perpetuo
La Web 2.0 con ejemplos Entender la evolución que ha llegado con la Web 2.0 puede realizarse con ejemplos, con proyectos. Podemos comparar servicios web que marcan claramente la evolución hacia el Web 2.0 con una nueva forma de hacer las cosas: • • •
Web 1.0 > Web 2.0 Doubleclick –> Google AdSense (Servicios Publicidad) Ofoto –> Flickr (Comunidades fotográficas) 38
• • • • • • • •
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Akamai –> BitTorrent (Distribución de contenidos) mp3.com –> Napster (Descargas de música) Britannica Online –> Wikipedia (Enciclopedias) Sitios personales –> Blogs (Páginas personales) Especulación con dominios –> Optimización en motores de búsqueda SEO Páginas vistas –> Costo por click CMSs –> Wikis (Administradores de contenidos) Categorías/Directorios –> Tags
¿Qué tecnologías apoyan a la Web 2.0? El Web 2.0 no significa precisamente que existe una receta para que todas nuestras aplicaciones web entren en este esquema. Sin embargo, existen varias tecnologías que están utilizándose actualmente y que deberíamos de examinar con más cuidado en busca de seguir evolucionando junto al web. Tecnologías que dan vida a un proyecto Web 2.0: • • • • • • • • • • •
Transformar software de escritorio hacia la plataforma del web. Respeto a los estándares como el XHTML. Separación de contenido del diseño con uso de hojas de estilo. Sindicación de contenidos. Ajax (javascript ascincrónico y xml). Uso de Flash, Flex o Lazlo. Uso de Ruby on Rails para programar páginas dinámicas. Utilización de redes sociales al manejar usuarios y comunidades. Dar control total a los usuarios en el manejo de su información. Proveer APis o XML para que las aplicaciones puedan ser manipuladas por otros. Facilitar el posicionamiento con URL sencillos.
¿En qué nos sirve la Web 2.0? El uso de el término de Web 2.0 está de moda, dándole mucho peso a una tendencia que ha estado presente desde hace algún tiempo. En Internet las especulaciones han sido causantes de grandes burbujas tecnológicas y han hecho fracasar a muchos proyectos. Además, nuestros proyectos tienen que renovarse y evolucionar. El Web 2.0 no es precisamente una tecnología, sino es la actitud con la que debemos trabajar para desarrollar en Internet. Tal vez allí está la reflexión más importante del Web 2.0. Yo ya estoy trabajando en renovar y mejorar algunos proyectos, no por que busque etiquetarlos con nuevas versiones, sino por que creo firmemente que la única constante debe ser el cambio, y en Internet, el cambio debe de estar presente más frecuentemente. Otros artículos interesantes sobre Web 2.0: •
Web 2.0 ¿Reconfiguración social o tecnológica? 39
• • • • • • • • • •
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
Web 3.0, añade significado What is Web 2.0 en O’reilly (inglés) Web 2.0 en la Wikipedia Plataforma Web 2.0 : ¿Que Es? Web 2.0 for designers Are you ready for Web 2.0? en Wired. El evento Web 2.0 Expo Proyectos web 2.0 aparecidos en España en el 2007 Como crear un logo web 2.0 Discusión: ¿Relación entre Web 2.0 e Internet 2?
40
2012
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Matemáticas
Sucesiones numéricas Una sucesión es una lista de números que siguen una regla. a1, a2, a3,... ai,... an,... Por ejemplo 1, 3, 5, 7, 9, ... El término general de esta sucesión es 2n - 1. Cuando nos dan el término general es muy sencillo obtener un término determinado, pero lo contrario, dados unos pocos términos, obtener el término general, puede ser bastante difícil. Una serie es la suma de los términos de una sucesión: a1 + a2 + a3 + ... + ai + ... + an + ... Las sucesiones más famosas son las progresiones aritméticas, las progresiones geométricas y la sucesion de Fibonacci. Las sucesiones pueden ser infinitas (cuando tienen un número infinito de términos) o finitas. Algunas sucesiones se aproximan cada vez más a un cierto número, estas sucesiones se llaman convergentes. Se dice que un número L es el límite de una sucesión, de término general an, si la diferencia en valor absoluto entre an y L es menor que un número cualquiera, e , previamente elegido. Expresado matemáticamente ½ an - L½ < e . Las sucesiones que no tienen este límite se llaman divergentes. Una sucesión es estrictamente creciente si cada término de la sucesión es mayor que el anterior Una sucesión es creciente si cada término es igual o mayor al anterior Similares definiciones se utilizan para sucesiones estrictamente decrecientes y decrecientes. Una sucesión es monótona si es creciente o decreciente. Una sucesión es estrictamente monótona si es estrictamente creciente o estrictamente decreciente. 41
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Una sucesión se dice acotada superiormente por un número A, si A >= an. Una sucesión se dice acotada inferiormente A, si A <= an. Una sucesión se dice acotada si está acotada superior e inferiormente Progresión aritmética Es una sucesión de números en la que cada término, excepto el primero, se obtiene sumando al anterior otro número fijo. Este número fijo se llama diferencia. Es fácil demostrar que el término general es: an = a1 + d(n-1) y la suma de n términos es: S = (a1 + an) . n / 2 Mi padre me ha contado esta historia: En un pequeño pueblo de Alemania (Brunswick), un profesor castigaba a sus alumnos haciéndoles sumar números consecutivos (por ejemplo sumar los 100 primeros números naturales). Era un duro castigo, pues había que hacer muchas sumas (1 + 2 = 3, 3 + 3 = 6, 6 + 4 = 10, 10 + 5 = 15,...) y era fácil equivocarse. Pero... una vez, uno de los niños le dio la solución en un tiempo sorprendente, el profesor le preguntó ¿cómo lo has hecho? El niño le dijo: 1 + 100= 101, 2 + 99 = 101, 3 + 98 = 101,... siempre suma 101 y hay 50 sumas, en total 50 * 101 = 5050. El profesor quedó tan impresionado que le regaló un libro de Aritmética. Ese niño tenía 10 años y se llamaba Carl Friedrich Gaüs. Fue uno de los mas grandes matemáticos Progresión geométrica Es una sucesión de números en la que cada término, excepto el primero, se obtiene multiplicando el anterior por otro número fijo. Este número fijo se llama razón. Es fácil demostrar que el término general de una progresión geométrica es: an = arn-1 y que la suma de n términos es: S = (an.r - a1) / (r - 1) Las progresiones geométricas tienen una propiedad interesante: el producto de dos términos equidistantes de los extremos es igual al producto de los extremos. Imaginación Espacial 42
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El proceso matemático fomenta entre otros aspectos, la formación de imágenes mentales, ya que este proceso se inicia manipulando un material concreto y situaciones de la vida cotidiana, se actúa y se reflexiona sobre ellos, luego de retirado estos materiales el alumno trabaja con imágenes mentales que una vez hechas familiares y asimiladas son tan concretas como el material utilizado. Las oraciones gramaticales nos permiten describir hechos y expresar ideas, tienen su símil en la ejercitación de las habilidades espaciales de visualización; planteamientos estos considerados de gran valor y estrechamente ligados al grado de imaginación que posea o sea capaz de poseer un individuo. Varios autores han realizado múltiples definiciones de imaginación espacial, en todos estos planteamientos hay un denominador común basado en el papel rector que se le atribuye a la imaginación en el proceso de la actividad de los seres humanos. En la mitad del siglo XX la escuela anglosajona, fundamentalmente, vuelve a descubrir y a rehabilitar la imaginación dentro de la investigación, donde siguen una serie de principios citados por Betancourt (1992) en los que se pone en evidencia el papel de la imaginación en el proceso de descubrimiento de los fenómenos que rodean a la humanidad. Al respecto T. Robot, planteó: “Toda invención grande o pequeña, antes de cobrar forma ha sido producto de la imaginación, una idea formada o trazada en la mente mediante nuevas combinaciones y correlaciones”. Existen varios factores de los que depende la imaginación, según Vigotsky (1987-8, estos son: experiencia, necesidades, intereses, capacidad combinadora y del ejercicio que se realiza de ella y medio circundante. Basándose en estos, es que varios autores plantean que la imaginación en el niño no es más rica que en el adulto. Pero lo que sí queda claro son las grandes potencialidades que poseen los escolares para desarrollar la imaginación a través de su interacción con el medio que les rodea. La imaginación aparece durante una situación problemática que requiere de la búsqueda de nuevos conocimientos o nuevos modos de acción para solucionarla que suele ser motivada por las necesidades de las personas. La imaginación funciona en la etapa del conocimiento en que la indeterminación de la situación es bastante grande. El valor de la imaginación consiste en que permite tomar decisiones y encontrar la salida a una situación dada, incluso con cantidad insuficiente de conocimientos, de aquí su debilidad como vía de solución, ya que por lo general es poco precisa y rigurosa. Existen distintos tipos de imaginación según las clasificaciones realizadas por Robot – Citado por S. de la Torre, 1989 – y Petrovsky, 1979; donde el primero de ellos se basa en la estructura de lo imaginado, sin embargo el segundo se sustenta en la acción, si llega o no a materializarse en la realidad. El valor de la personalidad humana depende en gran medida de los tipos de imaginación que predominan en su estructura. Si en el adolescente o joven predomina la imaginación creadora, esto evidencia un alto nivel en el desarrollo de la personalidad. 43
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Al considerar las definiciones dadas, por los autores mencionados, se aprecia que aparecen relacionados los vocablos imaginación-creación. Al respecto De la torre, plantea que la creatividad tiene un equivalente en el potencial imaginativo y hace mención a Robot, quien la identifica como la madre de la creatividad. La creación es interpretada por algunos autores como algo característico de las personas que llegan a obtener obras de reconocimiento mundial, por ejemplo, los grandes sabios. Sin embargo, compartimos el punto de vista de Vigotosky (1987) cuando dice que la creación no existe únicamente donde se crean grandes obras artísticas, sino también dondequiera que el hombre imagine, combine, transforme y cree algo nuevo por pequeño que sea en comparación con la obra de los grandes genios. En la más temprana edad se aprecian los procesos de creación con gran intensidad y que además se caracterizan por un rápido desarrollo imaginativo. La actividad principal del niño es el juego, siendo un elemento indispensable de éste la situación imaginada, que no es simplemente el recuerdo de lo vivido, si no la transformación creadora de las impresiones vividas, la combinación y organización de estas impresiones para la formación de una nueva realidad que responde a las exigencias e inclinaciones del propio niño, luego la imaginación tiene un fuerte componente motivacional. Así se comprende la necesidad de fomentar la imaginación creadora desde los primeros años de vida, pues es una vía que permite al ser humano proyectarse hacia el futuro. La matemática es una rama del saber que propicia el desarrollo del potencial imaginativo y creativo del individuo y dentro de ella puede citarse Geometría. Esto está dado porque al resolver la mayoría de los problemas geométricos éstos se nutren de la realidad y vuelven a la misma fundamentando las situaciones en las que se basaron. Esta disciplina tiene la ventaja de encontrar en el entorno real una prodigiosa fuente de bellos modelos perfectamente construidos, poniéndose en juego así el poder de la imaginación creadora en este campo. Uno de los tipos de imaginación dado en la clasificación de Petrovsky, es la imaginación espacial que tiene gran importancia en la resolución de problemas geométricos, ya que es fundamental a la hora de trabajar e imaginarse correctamente el dibujo, examinarlo y explicar todos los casos que se presentan, pues se requiere de una determinada fórmula o la argumentación de cierto concepto e imaginar bien las figuras geométricas necesarias; las que provocan en los estudiantes no pocas inquietudes. La imaginación espacial clara se desarrolla gradualmente, como resultado de un entrenamiento continuo. Es necesario imaginarse bien “desde distintos puntos de vista” los cuerpos y figuras que se plantean en el problema. Precisamente, cuando la imaginación de la figura es pobre, trae como consecuencia la incomprensión de la disposición mutua real de los cuerpos que se muestran en la figura y hacen que el estudiante realice una solución errónea del problema. Esto permite inferir que la que la imaginación espacial perfecta es inseparable de la demostración lógica completa 44
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
de todos los conceptos geométricos, en los cuales se apoyan durante el proceso de resolución. A veces por muy rica que sea nuestra imaginación, no puede darnos de inmediato la configuración correcta en el espacio, y sólo en el proceso de la resolución estricta se puede aclarar cuál es la disposición real de los cuerpos. Hablando metafóricamente, la imaginación espacial nos sugiere el camino de la solución, permite hacer un borrador del plan de solución, en que seguimos sólo a nuestra intuición, tratando de comprobar si llegamos o no al resultado deseado; pero luego es necesario realizarlo “en limpio” en la cual las consideraciones y conjeturas intuitivas y no estrictas se sustituyen por demostraciones exhaustivas, es decir, sin fantasías geométricas es difícil trazar el camino o la vía que conduce a la solución. La enseñanza geométrica no debe sucumbir a las limitaciones formales, simbólicas y algebraicas de los conocimientos matemáticos. Será precisamente en el primer estadio de sensibilidad donde el tacto, la vista, el dibujo y la manipulación, permitirán familiarizar al alumno con todo un mundo de figuras y movimientos sobre el cual asentar posteriormente los modelos abstractos. Para realizar estas representaciones de la realidad se pone en juego la imaginación creadora del individuo, de aquí la estrecha relación entre imaginación espacial e imaginación creadora. La formación de una personalidad creadora proyectada hacia el futuro es preparada por la imaginación creadora encarnada en el presente. La necesidad de conocer propiedades espaciales (forma, magnitud, y la posición mutua de los objetos) se debe a exigencias prácticas de lo que se deriva la importancia socio-cultural de la geometría en la esfera del conocimiento y se hace necesario incluirla en los diseños curriculares de la escuela. En la escuela cubana desde el primer ciclo de la enseñanza primaria aparecen nociones de la geometría, encaminadas a la orientación en el espacio, reconocimiento de objetos del medio que tienen formas de los cuerpos estudiados, representación de cuerpos y su desarrollo. En la enseñanza media se profundiza en el estudio de los cuerpos, se definen y se obtienen fórmulas para el cálculo de volúmenes y áreas, para concluir en el nivel preuniversitario donde se aplica la trigonometría al cálculo de cuerpos continuándose con el desarrollo de la visión espacial y contribuyendo a lograr una mejor interpretación del mundo que nos rodea. Por la importancia práctica que se le atribuye a la imaginación espacial dentro del currículo escolar cubano es que se fundamenta su inclusión en el mismo, entre otras razones por las siguientes: Esta presente en múltiples ámbitos del sistema productivo de nuestras actuales sociedades (Producción, industrial, diseño, arquitectura, topografía, ingeniería, técnica, construcciones).
45
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Las formas geométricas representan un aspecto importante en el estudio de los elementos de la naturaleza (La biología, la ciencia, la medicina, la física y otras). Es un componente esencial de las artes plásticas y además está presente en muchas manifestaciones del arte en general. Por lo que tenerla en cuenta para esculturas, construcciones de teatros de forma que se obtenga una mejor acústica, para el desarrollo de un espectáculo de ballet los artistas deben dominar las medidas del escenario, la Geometría está presente en cualquier manifestación del arte. El conocimiento básico de los problemas geométricos es uno de los aspectos indispensables para el desenvolvimiento en la vida cotidiana, para orientarse reflexivamente en el espacio, para hacer estimaciones sobre formas y distancias, para hacer apreciaciones y cálculos relativos a distribución de los objetos en el espacio (En la calle, en las casas, en la cultura y en general en nuestro quehacer cotidiano). En resumen se plantea que las figuras geométricas (planas o espaciales) y sus propiedades son útiles en distintas esferas de la vida, o sea, geometría es todo lo que nos rodea, por lo que en su estudio juega un papel fundamental el desarrollo de la capacidad de imaginación espacial. Según los Sabios, se dice que la matemática abarca tres ámbitos: • Aritmética. • Geometría, incluyendo la Trigonometría y las Secciones cónicas. • Ánálisis matemático, en el cual se hace uso de letras y símbolos, y que incluye el álgebra, la geometría analítica y el cálculo. Álgebra El Álgebra es la rama de las matemáticas que tiene por objeto de estudio la generalización del cálculo aritmético mediante expresiones compuestas de constantes (números) y variables (letras). Etimológicamente, proviene del árabe (también nombrado por los árabes Amucabala)ربج (yebr) (al-dejaber), con el significado de reducción, operación de cirugía por la cual se reducen los huesos luxados o fraccionados (algebrista era el médico reparador de huesos). El álgebra lineal tiene sus orígenes en el estudio de los vectores en el plano y en el espacio tridimensional cartesiano. Aquí, un vector es un segmento, caracterizado por su longitud (o magnitud) y dirección. Los vectores pueden entonces utilizarse para representar ciertas magnitudes físicas, como las fuerzas, pueden sumarse y ser multiplicados por escalares, formando entonces el primer ejemplo de espacio vectorial real. Hoy día, el álgebra lineal se ha extendido para considerar espacios de dimensión arbitraria o incluso de dimensión infinita. Un espacio vectorial de dimensión n se dice que es ndimensional. La mayoría de los resultados encontrados en 2 y 3 dimensiones pueden extenderse al caso n-dimensional. A mucha gente le resulta imposible la visualización 46
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
mental de los vectores de más de tres dimensiones (o incluso los tridimensionales). Pero los vectores de un espacio n-dimensional pueden ser útiles para representar información: considerados como n-tuplas, es decir, listas ordenadas de n componentes, pueden utilizarse para resumir y manipular información eficientemente. Por ejemplo, en economía, se pueden crear y usar vectores octo-dimensionales u 8-tuplas para representar el Producto Interno Bruto de 8 países diferentes. Se puede simplemente mostrar el PIB en un año en particular, en donde se especifica el orden que se desea, por ejemplo, (Estados Unidos, Reino Unido, Francia, Alemania, España, India, Japón, Australia), utilizando un vector (v1, v2, v3, v4, v5, v6, v7, v8) en donde el PIB de cada país está en su respectiva posición. Un espacio vectorial (o espacio lineal), como concepto puramente abstracto en el que podemos probar teoremas, es parte del álgebra abstracta, y está bien integrado en ella. Por ejemplo, con la operación de composición, el conjunto de aplicaciones lineales de un espacio vectorial en sí mismo (endomorfismos) tiene estructura de anillo, y el subconjunto de las aplicaciones lineales que son invertibles (los automorfismos) tiene estructura de grupo. El Álgebra Lineal también tiene un papel importante en el cálculo, sobre todo en la descripción de derivadas de orden superior en el análisis vectorial y en el estudio del producto tensorial (en física, buscar momentos de torsión) y de las aplicaciones antisimétricas. Un espacio vectorial se define sobre un cuerpo, tal como el de los números reales o en el de los números complejos. Una aplicación (u operador) lineal hace corresponder los vectores de un espacio vectorial con los de otro (o de él mismo), de forma compatible con la suma o adición y la multiplicación por un escalar definidos en ellos. Elegida una base de un espacio vectorial, cada aplicación lineal puede ser representada por una tabla de números llamada matriz. El estudio detallado de las propiedades de las matrices y los algoritmos aplicados a las mismas, incluyendo los determinantes y autovectores, se consideran parte del álgebra lineal. En matemáticas los problemas lineales, aquellos que exhiben linealidad en su comportamiento, por lo general pueden resolverse. Por ejemplo, en el cálculo diferencial se trabaja con una aproximación lineal a funciones. La distinción entre problemas lineales y no lineales es muy importante en la práctica. Algunos Teoremas Útiles Todo espacio lineal tiene una base (Esta afirmación es lógicamente equivalente al Axioma de elección) Una matriz A no nula con n filas y n columnas es no singular (inversible) si existe una matriz B que satisface AB = BA = I donde I es la matriz identidad. Una matriz es inversible si y solo si su determinante es distinto de cero. Una matriz es inversible si y solo si la transformación lineal representada por la matriz es un isomorfismo (vea también matriz inversible para otras afirmaciones equivalentes) Una matriz es positiva semidefinida si y solo si cada uno de sus eigenvalores son mayores o iguales a cero 47
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Una matriz es positiva definida si y solo si cada uno de sus eigenvalores son mayores a cero. Literales y exponentes Una literal es una representación general de una cierta magnitud. Por ejempo: el area de un rectangualo es igual a : A= bh donde A, b y H son literales. Expresiones Algebraicas Las expresiones algebraicas se clasifican según su número de términos. monomio = un solo término. Por ejemplo: binomio = suma o resta de dos monomios. Por ejemplo: trinomio = suma o resta de tres monomios. Por ejemplo: polinomio = suma o resta de cualquier número de monomios. Reglas de los Exponentes: •
Para multiplicar factores exponenciales que tienen la misma base y los exponentes son enteros positivos diferentes.
Ejemplo: •
Para multiplicar factores que tienen base diferente y exponentes iguales, el exponente se queda igual.
Ejemplo: •
En división, si tienen la misma base y los exponentes son enteros positivos diferentes, se restan los exponentes. Las variables m y n son enteros positivos , m > n.
Ejemplo: 48
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com •
2012
En suma y resta, solo se procede si son términos similares, en otras palabras lo que difiere es su coeficiente numérico.
Productos notables y factorización Productos Notables Cuadrado de la suma de dos cantidades El cuadrado de la suma de dos cantidades es igual al cuadrado de la primera cantidad más el doble de la primera cantidad por la segunda más el cuadrado de la segunda cantidad. Cuadrado de la diferencia de dos cantidades El cuadrado de la suma de dos cantidades es igual al cuadrado de la primera cantidad menos el doble de la primera cantidad por la segunda más el cuadrado de la segunda cantidad. Producto de la suma por la diferencia de dos cantidades El producto de la suma por la diferencia de dos cantidades es igual al cuadrado de la primera cantidad menos el cuadrado de la segunda Cubo de un binomio El cubo de la suma de dos cantidades es igual al cubo de la primera cantidad mas el triple del cuadrado de la primera por la segunda mas el triple del cuadrado de la segunda por la primera mas el segundo al cubo. El cubo de la diferencia de dos cantidades es igual al cubo de la primera cantidad menos el triple del cuadrado de la primera por la segunda mas el triple del cuadrado de la segunda por la primera menos el segundo al cubo. Cocientes Notables Cociente de la diferencia de los cuadrados de dos cantidades entre la suma o la diferencia de las cantidades La diferencia de los cuadrados de dos cantidades divididas entre la suma de las cantidades es igual a la diferencia de las cantidades. La diferencia de los cuadrados de dos cantidades entre la diferencia de las cantidades es igual a la suma de las cantidades. Factorización de Polinomios Factorizar un polinomio es el primer método para obtener las raíces o ceros de la expresión. Para factorizar se comienza con una regla que te permite desarrollar la destreza, para aplicarla a ejercicios de mayor dificultad. Se buscan dos factores o números cuyo producto sea el último término y a la vez sumados o restados den como resultado el coeficiente del 49
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
término del medio. Esta regla aplica solo a ecuaciones cuadráticas cuyo coeficiente de la variable elevado al cuadrado es 1. Si el coeficiente de la variable elevada al cuadrado no fuese 1, la manera de factorizar sería tanteando hasta poder lograr la factorización. Muchas veces la factorización es simplemente reconocer factores comunes. Se puede utilizar también la inversa de las fórmulas de productos especiales. O sea, expresamos el polinomio como una multiplicación o un producto, usando las fórmulas a la inversa.
Completando el Cuadrado Completando el cuadrado es el segundo método para obtener las raíces o ceros de un polinomio. El proceso es el siguiente: 1. Primero mueves el tercer término con signo opuesto al lado contrario de la igualdad. 2. Luego, vas a calcular el término que te permite crear tu cuadrado de la siguiente forma: selecciona el coeficiente de la variable que está elevada a la 1, se divide entre dos y elevarlo al cuadrado. 3. Este resultado lo sumarás a ambos lados de la expresión. 4. Después, la raíz cuadrada del primer término, el operador (signo) del medio y la raíz cuadrada del último termino, todo elevado al cuadrado es igual a la suma de la derecha. 5. Luego, sacas raíz cuadrada a ambos lados, observando que hay dos posibles soluciones, el caso positivo y el caso negativo. 6. Por último despejas por la variable y esas son las raíces o ceros del polinomio. Como ejemplo vamos a utilizar el ejercicio
.
50
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Casos de factorización Caso 1 - Factor común Cuando se tiene una expresión de dos o más términos algebraicos y si se presenta algún término común, entonces se puede sacar este término como factor común. Caso 2 - Factor por agrupación de términos En una expresión de dos, cuatro, seis o un número par de términos es posible asociar por medio de paréntesis de dos en dos o de tres en tres o de cuatro en cuatro de acuerdo al número de términos de la expresión original. Se debe dar que cada uno de estos paréntesis que contiene dos, o tres o mas términos se le pueda sacar un factor común y se debe dar que lo que queda en los paréntesis sea lo mismo para todos los paréntesis o el factor común de todos los paréntesis sea el mismo y este será el factor común. Caso 3 - Trinomio cuadrado perfecto Una expresión se denomina trinomio cuadrado perfecto cuando consta de tres términos donde el primero y tercer términos son cuadrados perfectos (tienen raíz cuadrada exacta) y positivos, y el segundo término es el doble producto de sus raíces cuadradas. Se extrae la raíz cuadrada del primer y tercer término y se separan estas raíces por el signo del segundo término. El binomio así formado se eleva al cuadrado. Caso 4 - Diferencia de cuadrados perfectos Dos cuadrados que se están restando es una diferencia de cuadrados. Para factorizar esta expresión se extrae la raíz cuadrada de los dos términos y se multiplica la resta de los dos términos por la suma de los dos. Caso especial: Se puede presentar que uno o los dos términos de la diferencia contenga mas de un término. Caso especial: Se puede dar una expresión de cuatro términos donde tres de ellos formen un trinomio cuadrado perfecto que al ser factorizado y combinado con el cuarto término se convierta en una diferencia de cuadrados, o pueden ser seis términos que formen dos trinomios cuadrados perfectos y al ser factorizados formen una diferencia de cuadrados. Caso 5 - Trinomio cuadrado perfecto por adición y sustracción Algunos trinomios no cumplen las condiciones para ser trinomios cuadrados perfectos, el primer y tercer término tienen raíz cuadrada perfecta pero el término de la mitad no es el doble producto de las dos raíces. Se debe saber cuanto debe ser el doble producto y la cantidad que falte para cuadrar el término de la mitad, esta cantidad se le suma y se le resta al mismo tiempo, de tal forma se armara un trinomio cuadrado y factorizado unido con el último término tendremos una diferencia de cuadrados. Caso especial: factorar una suma de cuadrados, se suma el término que hace falta para formar un trinomio cuadrado perfecto y al mismo tiempo se resta esta misma cantidad, así tendremos un trinomio cuadrado perfecto enseguida una diferencia de cuadrados. 51
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Caso 6 - Trinomio de la forma x2+bx+c Esta clase de trinomio se caracteriza por lo siguiente: El primer término tiene como coeficiente 1 y la variable esta al cuadrado. El segundo término tiene coeficiente entero de cualquier valor y signo y la misma variable. El tercer término es independiente (no contiene la variable). Para factorar este trinomio se deben abrir dos factores que sean binomios, y donde el primer término de cada binomio es la variable y el segundo término en cada uno de los factores (paréntesis), son dos números , uno en cada paréntesis de tal forma que la suma de los dos del coeficiente del segundo término del trinomio y la multiplicación de los dos del tercer término del trinomio, el signo del segundo término de cada factor depende de lo siguiente: • ° Si el signo del tercer término es negativo, entonces uno será positivo y el otro negativo, el mayor de los dos números llevara el signo del segundo término del trinomio y el otro número llevara el signo contrario. ° Si el signo del tercer término es positivo, entonces los dos signos serán iguales (positivos o negativos), serán el signo del segundo término del trinomio. Caso 7 - Trinomio de la forma Este trinomio se diferencia del trinomio cuadrado perfecto en que el primer término puede tener coeficiente diferente de 1. Se procede de la siguiente forma: Se multiplica todo el trinomio por el coeficiente del primer término, de esta forma se convierte en un trinomio de la forma: y se divide por el mismo coeficiente. Se factoriza el trinomio en la parte superior del fraccionario y se simplifica con el número que esta como denominador. Caso 8 - Cubo perfecto de binomios Podemos asegurar que una expresión algebraica es un cubo perfecto si cumple las siguientes condiciones: • Posee cuatro términos ° El primer y cuarto término son cubos perfectos (tienen raíces cúbicas exactas). ° El segundo termino sea el triple del cuadrado de la raíz cúbica del primer término multiplicado por la raíz cúbica del último término. ° El tercer termino sea el triple del cuadrado de la raíz cúbica del último término multiplicado por la raíz cúbica del primer término. ° Los signos son todos mas o también podría ser positivo el primero y el tercero y negativo el segundo y el cuarto. Para factorizar un cubo perfecto se forma un binomio y se eleva al cubo, el primer término del binomio es la raíz cúbica del primer término y el segundo término es la raíz cúbica del último término. El signo del segundo término es mas si todos los signos del cubo son mas y es menos si los signos del segundo y cuarto término del cubo son menos. 52
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Caso 9 - Suma o diferencia de cubos perfectos Su nombre lo indica, se reconoce por ser la suma o la resta de dos cubos. Su solución será dos factores, el primero de ellos es un binomio formado por las dos raíces cúbicas de los términos dados, el segundo factor esta formado por tres términos así: la priemra raíz al cuadrado, la primera raíz por la segunda y la segunda raíz al cuadrado. Los signos pueden ser de dos formas acuerdo a lo siguiente:
Caso 10 - Suma o diferencia de dos potencias iguales Resumamos en la siguiente tabla las posibilidades: Para an-bn con n = par o impar la factorización será: Para an-bn con n = par la factorización será: Para an+bn con n = impar la factorización será:
Ecuaciones de primer y segundo grados Se llaman ecuaciones a igualdades en las que aparecen número y letras (incógnitas) relacionados mediante operaciones matemáticas. Por ejemplo: 3x - 2y = x2 + 1 Son ecuaciones con una incógnita cuando aparece una sóla letra (incógnita, normalmente la x). Por ejemplo: x2 + 1 = x + 4 Se dice que son de primer grado cuando dicha letra no está elevada a ninguna potencia (por tanto a 1). Ejemplos : 3x + 1 = x - 2 1 - 3x = 2x - 9. x - 3 = 2 + x. x/2 = 1 - x + 3x/2 Ecuaciones de segundo grado con una incógnita
53
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Las ecuaciones de segundo grado o cuadráticas son aquellas en las que la variable está elevada al cuadrado, el siguiente es un ejemplo de una ecuación cuadrática:
La ecuación solo tiene una incógnita, y ésta se encuentra elevada a la 1 y al cuadrado, además hay términos independientes (números). Las ecuaciones de segundo grado tienen dos soluciones o ninguna. Este es un ejemplo de una ecuación cuadrática completa, ya que posee coeficientes distintos de cero en los términos cuadráticos (x^2), lineales (x^1) e independientes (x^0). Veamos entonces algunos ejemplos de ecuaciones cuadráticas incompletas:
Esta ecuación es muy fácil de resolver, ya que no se encuentra presente el término lineal: Pero las ecuaciones cuadráticas tienen siempre dos soluciones, o bien ninguna, así que en este caso una raíz cuadrada genera dos soluciones, una con signo positivo y otra negativo:
Y esto es cierto ya que tanto 2 como -2 elevados al cuadrado dan 4, así que siempre que calculemos la solución de una raíz cuadrada se debe tener en cuenta que ésta genera dos signos. Esto suele expresarse de la siguiente manera: Esto es un poco confuso pero en realidad nos dice que hay dos soluciones, vemos que ambas soluciones verifican la ecuación inicial. Veamos ahora otro caso, si la ecuación tiene términos cuadráticos y lineales, pero no tiene términos independientes: En este caso sacamos factor común X y razonamos de la siguiente forma: Para que el primer miembro se haga 0 solo hay 2 alternativas: x es igual a 0 o (x+4) es igual a 0. De aquí se obtienen las dos soluciones (que llamamos X1 y X2):
Vemos que las soluciones verifican. Finalmente vamos al caso más complejo que es el que teníamos inicialmente:
Es muy difícil despejar x de esta ecuación (pero no imposible como veremos más adelante). Para resolverla se utiliza una fórmula muy famosa, la fórmula de las soluciones de la ecuación de segundo grado, la cual es atribuída a un indú de apellido Baskara, en primer lugar hay que pasar todos los términos a un lado de la expresión de manera que quede igualada a cero. En segundo lugar se identifican tres coeficientes llamados a, b y c (a=coeficiente cuadrático, b=coeficiente linearl, c=término independiente). 54
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
La ecuación debe expresarse de la forma:
Por lo tanto operamos con la ecuación hasta llevarla a este formato (a, b y c son números en definitiva).
Comparando encontramos que:
La fórmula que da las soluciones es la siguiente:
Fórmula de Baskara Así que reemplazando los valores a, b y c:
Con lo cual obtenemos 2 soluciones, (ambas verifican la ecuación), una con el signo + y otra con el -
Puede darse el caso que la ecuación no tenga solución (cuando queda una raíz negativa). El tema es: de dónde sacó Baskara esta fórmula?, bueno, en realidad es sencillo, él encontró la forma de construir un trinomio cuadrado perfecto (tercer caso de factoreo), aplicando algunos "truquillos". Fórmula de Baskara - Demostración Ahora viene la parte divertida, la demostración. En primer lugar hay que llevar la ecuación a la forma: Luego se multiplica todo por 4a (la igualdad se mantiene desde luego): Ahora sumamos y restamos b^2, de esta manera no cambia nada tampoco: Ahora observemos los primeros 3 términos, se trata de un trinomio cuadrado perfecto, así que factoreando se obtiene:
55
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Y ahora es fácil despejar X:
Pero como vimos antes una raíz arroja 2 resultados, uno positivo y uno negativo así que queda:
Esta última es la famosa fórmula que nos da las soluciones para X. Proporciones y desigualdades Desigualdades algebraicas Definiciones:
Ley de la tricotomía: "Para cada par de números reales a y b, es verdadera una, y solamente una, de las proposiciones: Propiedades de las desigualdades Teorema1-Propiedad transitiva:
Ejemplo ilustrativo: Teorema2-Suma:
Ejemplo ilustrativo:
Teorema3-Multiplicación por un número positivo: Ejemplo ilustrativo:
Teorema4:
Ejemplo ilustrativo: 56
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Los Teoremas 1 a 4 también son válidos si se cambia ">" por "<" Teorema5:
Teorema6:
"Si se cambia el signo de ambos miembros de una desigualdad, se cambia el sentido de la desigualdad". Teorema7:
Teorema8:
Teorema9:
Teorema10:
Teorema11:
Geometría La geometría es la matemática que estudia idealizaciones del espacio: los puntos, las rectas, los planos y otros elementos conceptos derivados de ellos, como polígonos o poliedros. Origen y desarrollo de la geometría: Todo comenzó en Egipto El ser humano necesitó contar, y creó los números; quiso hacer cálculos, y definió las operaciones; hizo relaciones, y determinó las propiedades numéricas. Por medio de lo anterior, más el uso de la lógica, obtuvo los instrumentos adecuados para resolver las situaciones problemáticas surgidas a diario.
57
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Además de esos requerimientos prácticos, el hombre precisó admirar la belleza de la creación para satisfacer su espíritu. Con ese fin, observó la naturaleza y todo lo que le rodeaba. Así fue ideando conceptos de formas, figuras, cuerpos, líneas, los que dieron origen a la parte de la matemática que designamos con el nombre de geometría. El río Nilo La palabra geometría está formada por las raíces griegas: "geo", tierra, y "metrón", medida, por lo tanto, su significado es "medida de la tierra". Según lo registra la historia, los conceptos geométricos que el hombre ideó para explicarse la naturaleza nacieron -en forma práctica- a orillas del río Nilo, en el antiguo Egipto. Las principales causas fueron tener que remarcar los límites de los terrenos ribereños y construir diques paralelos para encauzar sus aguas. Esto, debido a los desbordes que causaban las inundaciones periódicas. El aporte griego Quienes dieron carácter científico a la geometría fueron los griegos, al incorporar demostraciones en base a razonamientos. Tales de Mileto (600 a.d.C.) inició esta tendencia, al concebir la posibilidad de explicar diferentes principios geométricos a partir de verdades simples y evidentes. Euclides (200 a.d.C.) le dio su máximo esplendor a esta corriente científica. Recogió los fundamentos de la geometría y de la matemática griega en su tratado Elementos. Representemos los conceptos Hay conceptos geométricos que no pueden definirse. Son ideas formadas en nuestra mente a través de la observación del entorno y solamente podemos hacer representaciones concretas de ellas. Las llamaremos términos primitivos o conceptos primarios y son: espacio, punto, recta y plano. Espacio Es el conjunto universo de la geometría. En él se encuentran todos los demás elementos. Dentro de él determinamos cuerpos geométricos como cajas, planetas, esferas, etcétera. Su símbolo es: E Punto
58
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El punto tiene posición en el espacio. Su representación más cercana es el orificio que deja un alfiler en una hoja de papel o en un granito de arena, pero debemos tener en cuenta que no tiene grosor. En el espacio hay infinitos puntos. Los identificaremos con una letra mayúscula y para reconocerlos usaremos o x. Por ejemplo: A se lee punto A, x M se lee punto M. Si unimos diferentes puntos, obtendremos líneas que pueden ser curvas, rectas, mixtas o poligonales. Son curvas si, al unirse los puntos, siguen distintas direcciones; rectas, si llevan la misma dirección; mixtas, si mezclan ambas; y poligonales, si están formadas solamente por trozos de rectas.
Plano y Recta: Infinitos puntos La unión de infinitos puntos da origen a los otros dos principios básicos de la geometría: plano y recta. La representación más cercana de la recta es un hilo tenso o la marca que deja un lápiz en un papel. Es infinita, porque sus extremos son ilimitados y en ella hay infinitos puntos. La identificaremos con el dibujo Una recta puede tener dirección: Horizontal: como la línea del horizonte. Vertical: como el hilo a plomo.
Oblicua:
cuando es distinta a las dos anteriores.
Las rectas se nombran con dos letras mayúsculas y sobre ellas se anota su símbolo. Por ejemplo: AB, se lee recta AB. También se usa una L ó una R, especialmente en los casos en que deban distinguirse varias rectas. Veamos: 59
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
DE es una recta oblicua.
L es una recta vertical.
Plano Lo más parecido a este elemento del espacio es una hoja de papel, pero lo diferencia con ésta, el hecho que es ilimitado y no tiene grosor. El plano es una superficie infinita, formada por infinitos puntos que siguen una misma dirección, es decir, hay rectas que quedan totalmente incluidas en ella. El símbolo de plano es P y para nombrarlo debe estar acompañado de, por lo menos, tres puntos. Las paredes de nuestra casa, el pavimento de las calles, la superficie de una laguna, son representaciones de planos. Es importante saber que en un plano podemos encontrar puntos y rectas, y obtener figuras geométricas. Hay planos horizontales, verticales y oblicuos. Cuando en una superficie no quedan rectas totalmente incluidas en ella, decimos que es curva. Una representación de esto sería una bandera flameando Cálculo de perímetros, áreas y volúmenes El perímetro de una figura bidimensional es la distancia que hay alrededor de ella. El perímetro de un polígono es igual a la suma de todos sus lados. El perímetro de un polígono regular es igual a la la longitud de uno de los lados multiplicada por el número de lados. La longitud de una circunferencia, o su perímetro, es igual a 2×π×r, donde r es el radio y π es una constante que tiene un valor aproximadamente igual a 3,1416. Llamamos área o superficie a la medida de la región interior de un polígono. Recordemos que la región interior es la parte del plano que queda encerrada por los lados del polígono. Observa:
60
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Este polígono de 9 lados, es decir, un eneágono, tiene pintada de azul su región interior. Los puntos de la región interior no se intersectan con la región exterior, porque tienen una frontera: los lados que forman el polígono. Una necesidad y un problema El hombre tuvo necesidad de medir la superficie de los terrenos que sembraba. Para hacerlo, ideó un sistema utilizando los elementos que tenía a su alcance. El método consistió en colocar cada elemento sobre la tierra para ver cuántas veces cabía en la superficie que quería medir, como si pusiera baldosas sobre ella. Pero se le presentó una dificultad, debido a que las medidas que usaba eran arbitrarias. Es decir, cada persona tenía una base diferente, y media de acuerdo a su propio parecer, sin ponerse de acuerdo con los demás. Por ejemplo... Para que entiendas mejor lo anterior, lo veremos graficado con un ejemplo. Vamos a medir el área de una figura, utilizando elementos diferentes. Esta es nuestra figura:
Primero mediremos el área de este rectángulo, tomando como medida base una baldosa roja.
La baldosa roja cabe 9 veces en nuestro rectángulo, entonces su área es de 9 baldosas rojas. Ahora, mediremos con una baldosa diferente, la que identificaremos con el color verde. Así:
La baldosa verde cabe 16 veces en el rectángulo. El área corresponde a 16 baldosas verdes.
61
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El rectángulo es el mismo, pero las baldosas son diferentes. Por lo tanto, los resultados de la medición también fueron distintos. Cuadrados y rectángulos Dibujaremos un cuadrado de 3 cm. y colocaremos sobre él centímetros cuadrados.
Obtuvimos 9 cm2, lo mismo que si multiplicamos lado por lado, de este modo: 3 cm · 3 cm = 9 cm2 Si llamamos a al lado del cuadrado, podemos concluir que: el área de un cuadrado es a · a = a2 El área de un rectángulo se calcula de forma semejante; lo único que cambia es que las medidas de los lados son distintas. Al largo, lo denominaremos a, y al ancho, b. Calcularemos el área del siguiente rectángulo con centímetros cuadrados.
El área equivale a 8 cm2. Matemáticamente se puede obtener multiplicando largo por ancho. En fórmula, el área de un rectángulo es a · b Rombos y romboides Estos paralelógramos no tienen ángulos rectos, por lo que en ellos no se puede aplicar la misma fórmula. Para calcular su área, recurriremos a un elemento secundario: la altura, un segmento perpendicular (forma ángulos de 90°) que une un lado con su vértice opuesto.
En el rombo y romboide dibujados, DE corresponde a la altura. ¿Por qué necesitamos la altura para calcular el área? Trazaremos una paralela a la altura desde C y prolongaremos el lado AB hasta obtener F. Se formó un BFC, congruente con AED y nos quedó el rectángulo EFCD
62
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El rectángulo formado tiene como largo el lado del rombo o romboide, y su ancho es la altura dibujada. Entonces, concluimos que: El área del rombo o romboide = b · h ---> b= base, y h = altura En resumen, cualquier paralelógramo tiene una sola fórmula para calcular su área, ya que en el cuadrado y en el rectángulo un lado es la base y el otro, la altura. Entonces: Área de un paralelógramo = b · h Calcularemos el área de un rombo que tiene 4,6 cm. por lado y su altura es de 3 cm. Aplicamos la fórmula: Área rombo = b · h Área rombo = 4,6 cm · 3 cm. Área rombo = 13,8 cm2 Trapecios Sabemos que los trapecios son cuadriláteros que tienen un par de lados paralelos llamados bases. Sus lados, es decir, los no paralelos, no son perpendiculares a las bases, salvo el trapecio rectángulo que tiene perpendicular uno de ellos. Para el cálculo de su área también necesitamos considerar la altura.
Para formar un rectángulo trazamos la paralela a DE desde B y prolongamos DC hasta formar F. Nos queda el
AED
CFB y nuestro rectángulo es EBFD
El rectángulo tiene como largo la mitad de la suma de las bases del trapecio y su ancho es la altura que trazamos. El área del trapecio se puede calcular aplicando la fórmula: Área del trapecio = base mayor + base menor · h _______________________________ 2 Calcularemos el área de nuestro trapecio. Área del trapecio = 8 cm + 4 cm · 3,6 ___________________ 2 Área del trapecio =
12 cm ·
3,6
63
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
_______________ 2 Área del trapecio = 21,6 cm2 El área de los triángulos El cálculo de área de un triángulo cualquiera, se relaciona con el área de un romboide, cuya fórmula era base · altura ¿Cómo podemos relacionar triángulo y romboide? Lo haremos a través del siguiente dibujo
A nuestro ABC, le trazaremos una paralela al lado AC a partir de B, y una paralela a AB a partir de C.
Se ha formado un romboide donde el ABC es la mitad de él. Para calcular el área del romboide necesitábamos la altura, porque su fórmula es b · h. Como el es la mitad del romboide obtenemos que el área del es igual a la mitad del área del romboide. Su fórmula es: Área del triángulo = b · h _______ 2 AB= 5 cm AC= 3,2 cm BC= 4 cm CD= 3 cm
Calculemos el área de este triángulo. Comenzamos, aplicando la fórmula.
Triángulo rectángulo Si el es rectángulo, su área se puede calcular por medio de sus catetos, que son los lados perpendiculares, porque un cateto es la altura del otro. Entonces, la fórmula para su cálculo sería: Área del triángulo = cateto · cateto 64
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
_____________________ 2
Aplicaremos esta fórmula en el siguiente triángulo rectángulo. AB= 4 cm BC= 5 cm AC= 3 cm Los catetos miden 3 y 4 cm
En el círculo El círculo es la región interior de una circunferencia.
El área de un círculo se obtiene aplicando la siguiente fórmula: Área del O = · r2 = 3,14 r = radio de la circunferencia Recordemos que es un número decimal infinito que, para efectos de cálculo, lo dejamos en 3,14 ó 3. Aplicaremos la fórmula para calcular el área de un círculo de 3 cm. de radio.
Apliquemos el teorema de Pitágoras El gran matemático griego Pitágoras descubrió una situación muy especial que se produce en el triángulo rectángulo y que se relaciona con sus lados. Su teorema dice: "El cuadrado construido sobre la hipotenusa de un triángulo rectángulo, equivale a la suma de los cuadrados construidos sobre sus catetos" Demostraremos este teorema a través de un dibujo.
65
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Hemos construido un cuadrado sobre cada lado del triángulo rectángulo. Pitágoras dice que el cuadrado 1 tiene su área igual a la suma de los cuadrados 2 y 3. De acuerdo al cuadriculado, el cuadrado 1 tiene un área de 25 cuadros. Al sumar los 9 cuadros del cuadrado 2 y los 16 cuadros del 3 obtenemos 25. Entonces, se cumple:
Este teorema nos sirve para calcular la medida desconocida de un lado de un triángulo rectángulo, puede ser un cateto o su hipotenusa. Por ejemplo: si la hipotenusa mide 5 cm y uno de sus catetos es 4 cm, ¿cuánto mide el otro cateto? Aplicamos la fórmula.
Áreas achuradas Son una forma de aplicación del cálculo de áreas de diferentes figuras que están relacionadas entre sí. Para distinguir la parte que se debe calcular como resultado final se procede a achurarla, es decir, se pinta o raya imitando texturas. Algunas veces, la parte achurada está formada por la unión de áreas de figuras, por lo tanto, hay que descomponerla, luego hacer el cálculo de cada parte, y finalmente, sumarlas para encontrar el área total. Veamos el siguiente ejemplo:
Esta figura se descompone en medio círculo y un rectángulo. Primero, tendremos que calcular el área del círculo; luego, dividirla por 2. Buscaremos, también el área del rectángulo y después sumaremos ambos resultados para obtener el área total. 66
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Hay ejercicios, que tienen unas figuras dentro de otras y la parte achurada se relaciona con un sector formado por la intersección de ellas. En estos casos, la solución se encuentra buscando la diferencia entre las figuras que forman la intersección. Por ejemplo:
Nuestra figura está formada por un cuadrado con un círculo en su interior. La parte achurada corresponde a la diferencia entre el área del cuadrado y la del círculo Volumen Geometría analítica Se conoce como geometría analítica al estudio de ciertos objetos geométricos mediante técnicas básicas del análisis matemático y del álgebra. Se podría decir que es el desarrollo histórico que comienza con la geometría cartesiana y concluye con la aparición de la geometría diferencial con Gauss y más tarde con el desarrollo de la geometría algebraica. Lo novedoso de la Geometría Analítica es que permite representar figuras geométricas mediante fórmulas del tipo f(x,y) = 0, donde f representa una función. En particular, las rectas pueden expresarse como ecuaciones polinómicas de grado 1 (v.g.: 2x + 6y = 0) y las circunferencias y el resto de cónicas como ecuaciones polinómicas de grado 2 (v.g.: la circunferencia x2 + y2 = 4, la hipérbola xy = 1). Construcciones fundamentales. En un sistema de coordenadas cartesianas, un punto del plano queda determinado por dos números, que son la abscisa y la ordenada del punto, de forma que, a todo punto del plano corresponden siempre dos números reales ordenados (abscisa y ordenada), y recíprocamente, a un par ordenado de números corresponde un único punto del plano. Consecuentemente el sistema cartesiano establece una correspondencia biunívoca entre un concepto geométrico como es el de los puntos del plano y un concepto algebraico como son los pares ordenados de números. Esta correspondencia constituye el fundamento de la Geometría Analítica. Con la Geometría Analítica se puede determinar figuras geométricas planas por medio de ecuaciones e inecuaciones con dos incógnitas. Éste es un método alternativo de resolución de problemas, o cuando menos nos proporciona un nuevo punto de vista con el cual poder atacar el problema. Localización de un punto en el plano cartesiano. En un plano traza dos rectas perpendiculares (ejes) —que por convenio se trazan de manera que una de ellas sea 67
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
horizontal y la otra vertical—, y cada punto del plano queda unívocamente determinado por las distancias de dicho punto a cada uno de los ejes, siempre y cuando se dé también un criterio para determinar sobre qué semiplano determinado por cada una de las rectas hay que tomar esa distancia, criterio que viene dado por un signo. Ese par de números, las coordenadas, quedará representado por un par ordenado (x,y), siendo x la distancia a uno de los ejes (por convenio será la distancia al eje vertical) e y la distancia al otro eje (al horizontal). En la coordenada x, el signo positivo (que suele omitirse) significa que la distancia se toma hacia la derecha del eje horizontal (eje de las abcisas), y el signo negativo (nunca se omite) indica que la distancia se toma hacia la izquierda. Para la coordenada y, el signo positivo (también se suele omitir) indica que la distancia se toma hacia arriba del eje vertical (eje de ordenadas), tomándose hacia abajo si el signo es negativo (tampoco se omite nunca en este caso). A la coordenada x se la suele denominar abscisa del punto, mientras que a la y se la denomina ordenada del punto. Los puntos del eje de abscisas tiene por lo tanto ordenada igual a 0, así que serán de la forma (x,0), mientras que los del eje de ordenadas tendrán abscisa igual a 0, por lo que serán de la forma (0,y). El punto donde ambos ejes se cruzan tendrá por lo tanto distancia 0 a cada uno de los ejes, luego su abscisa será 0 y su ordenada también será 0. A este punto —el (0,0)— se le denomina origen de coordenadas. Ecuaciones de la recta en el plano Una recta en el plano se representa con la función lineal de la forma:
como expresión general, si bien podemos distinguir dos casos particulares. Si una recta no corta a uno de los ejes, será porque es paralela a él. Como los dos ejes son perpendiculares, si no corta a uno de ellos forzosamente ha de cortar al otro. Tenemos pues dos casos: Rectas que no cortan al eje de las ordenadas Estas rectas son, entonces, paralelas a dicho eje. Se denominan rectas verticales. El punto de corte de una de dichas rectas con el eje de las abscisas será entonces el punto (x0,0). La ecuación de dicha recta es, por lo tanto es:
Rectas que no cortan al eje de las abscisas.
68
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Estas rectas son entonces paralelas a dicho eje. Se denominan rectas horizontales. El punto de corte de una de dichas rectas con el eje de las ordenadas será entonces el punto (0,y0). La ecuación de dicha recta es, por lo tanto:
Rectas oblicuas Cualquier otro tipo de recta recibe el nombre de recta oblicua. En ellas hay un punto de corte con el eje de abscisas (a,0)y otro punto de corte con el eje de ordenadas (0,b). El valor a recibe el nombre de abscisa en el origen, mientras que el b se denomina ordenada en el origen. Cónicas Así, por ejemplo, la geometría analítica plana describe una elipse, centrada en el origen de un sistema de coordenadas cartesianas con la siguiente expresión:
donde a y b son constantes que se identifican como los semiejes mayor y menor de la elipse. Construcciones en el espacio tridimensional. Los razonamientos sobre la construcción de los ejes coordenados son igualmente válidos para un punto en el espacio y una terna ordenada de números, sin más que introducir una tercera recta perpendicular a los ejes X e Y: el eje Z. Sin embargo no hay análogo al importantísimo concepto de pendiente de una recta. Precálculo Propiedades de los números reales Los números que se utilizan en el álgebra son los números reales. Hay un número real en cada punto de la recta numérica. Los números reales se dividen en números racionales, números irracionales y números enteros los cuales a su vez se dividen en números negativos, números positivos y cero (0) .Podemos verlo en esta tabla:
69
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Un número real es racional si se puede representar como cociente a/b, donde a sea un entero y b sea un entero no igual a cero. Los números racionales pueden escribirse en forma decimal. Existen dos maneras: * Decimales terminales * Decimales que se repiten infinitamente Los números reales que no pueden ser expresados en la forma a/b, donde a y b son enteros se llaman números irracionales. Los números irracionales no tienen decimales terminales ni decimales que se repiten infinitamente. Desigualdades Desigualdades Lineales Una inecuación o desigualdad lineal es lo mismo que una ecuación lineal pero cambiando el signo de igualdad por signo(s) de desigualdad. Los signos de desigualdad son . Para resolver una desigualdad lineal se utilizan los mismos pasos que se usan para resolver una ecuación lineal. Como ejemplo, vamos a resolver la desigualdad 3 > x - 8. Sumando la misma cantidad a ambos lados: 3>x-8 3+8>x-8+8 11 > x Una regla importante en las desigualdades es que cuando se divide por un número negativo, el signo de desigualdad cambia. Ejemplo:
70
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Intervalos Un intervalo es el conjunto de todos los números reales entre dos números reales dados. Para representar los intervalos se utilizan los siguientes símbolos: 1. Intervalo abierto (a, b) = {x/a x b}. 2. Intervalo cerrado [a, b] = {x/a x b} En una gráfica, los puntos finales de un intervalo abierto se representan con un punto abierto ( ) y los de un intervalo cerrado se representan con un punto cerrado ( ). Por ejemplo, observemos las siguientes figuras:
Según vimos anteriormente los paréntesis se utilizan para los intervalos abiertos y los corchetes para los intervalos cerrados. Veamos ahora cuando se utilizan ambas denotaciones a la misma vez. Por ejemplo: Si tenemos (a, b), la gráfica sería:
Si tenemos [a, b), la gráfica sería:
71
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Cuando hablamos de infinito nos referimos al conjunto de todos los números reales mayores que a y se representan con la notación de intervalo (a, ). El conjunto de todos los números reales menores que a se representan con la notación de intervalo (- , a). Desigualdades que Envuelven Dos Posibles Soluciones Hay desigualdades que envuelven dos posibles soluciones, una positiva y otra negativa. Por ejemplo: | 10x - 2| 9 • 10x - 2 -9 10x -9 +2 10x -7 10x/10 -7/10 x -7/10 • 10x - 2 9 10x 9 + 2 10x 11 10x/10 11/10 x 11/10 Función y límite Coordenadas Llamamos a la coordenada de un punto a cada punto en la recta numérica asociado con un número real. Un par ordenado es un par de números a y b con elementos escritos en forma significante. Dos pares ordenados son iguales si tienen el mismo primer elemento y el mismo segundo elemento. Por ejemplo: El par ordenado (4, 5) es igual al par ordenado (4, 5). Los números en un par ordenado son llamados coordenadas. En el par (7, 5) la primera coordenada es 7 y la segunda es 5. Ya hemos visto en la primera sección cómo se construye una recta numérica. La línea horizontal es el eje de x, la vertical es el eje de y y su intersección es el origen. Estos ejes dividen el plano en cuatro zonas llamadas cuadrantes. Veamos la siguiente recta numérica:
72
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Las coordenadas en el primer cuadrante serán (+, +), las del segundo cuadrante serán (-, +), las del tercer cuadrante serán (-, -) y las del cuarto cuadrante serán (+, -). El primer número de una coordenada representa el lugar horizontal del punto y el segundo número representa el lugar vertical del punto. Por ejemplo:
Distancia Entre Dos Puntos La distancia entre dos puntos P1 y P2 se calcula usando la siguiente fórmula: d( P1, P2) = |P1 - P2| Por ejemplo: d(4, -6) = |4 - (-6)| = 10 Pero para hallar la distancia entre dos puntos, mediante sus coordenadas P1 (X1, Y1) y P2 (X2, Y2), utilizamos la siguiente fórmula de distancia:
Círculos Un círculo es una curva que consiste en un conjunto de puntos equidistantes a un punto en común. El punto en común es llamado el centro del círculo y la distancia desde el centro hasta la curva se conoce como el radio del círculo. Para determinar la distancia del radio (r), supongamos que las coordenadas del centro son (h, k) y las de un punto cualquiera del círculo son (x, y), la fórmula sería: Por ejemplo, si el centro del círculo es (6, 4) y uno de sus puntos es (4, 3). Determinar el radio (r).
73
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Si el centro del círculo es el origen, o sea con coordenadas (0, 0), entonces la fórmula sería: Por ejemplo, si utilizamos el ejercicio anterior pero con centro (0, 0) sería:
Variación Existen dos tipos de variación: variación directa y variación inversa. Veamos cada una de ellas: Variación Directa = es una función que se define por una ecuación que está en la forma y = kx , donde k es una constante no igual a cero. La variable y varía directamente de x. La constante k es llamada la constante de variación. La variación directa establece un único valor de y para cada valor de x. En la variación directa las dos variables aumentan (o disminuyen) juntas. Cuando el dominio es un conjunto de números reales, la gráfica de la variación directa es una línea recta con pendiente k que pasa por el origen.
74
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Variación Inversa = es una función que se define por una ecuación que está en la forma y = k/x, donde x no es igual a cero. La variable y varía a la inversa de x. En la variación invesa el aumento de una de las variables significa la disminución de la otra variable. La gráfica de esta variación es una hipérbola.
Proporción Una proporción es una ecuación que establece que dos radios son iguales. Una proporción es en la que el producto entre a con d es igual al producto de b con c. Muchos problemas de aplicación pueden resolverse si se utiliza una proporción adecuada. Por ejemplo: Un automóvil gasta 9 galones de gasolina para viajar 120 millas. ¿Cuántos galones de gasolina necesitaría el auto para viajar 550 millas? 9 gal. = 120 mi. x gal. = 550 mi.
Funciones Una función consiste en dos conjuntos, dominio y rango, y una regla que asigna a cada miembro del dominio exactamente un miembro del rango. A cada miembro del rango debe 75
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
serle asignado por lo menos un miembro del dominio. Si la relación entre dos variables x y y es una en la que para cada valor de y hay exactamente un valor de x, se dice que y es una función de x. Ejemplo: y = 7x + 1 y = 7(2) + 1 = 15 y = 7(4) + 1 = 29 y = 7(6) + 1 = 43 El dominio D es {2, 4, 6} y el rango R es {15, 29, 43}. La Gráfica de una Función Para hacer la gráfica de una función como f(x) = x + 2, lo hacemos igual que si hiciéramos la gráfica de una ecuación y = x + 2. Buscamos los pares ordenados (x, f(x)), se localizan los puntos en la recta numérica y se conectan. Por ejemplo: f(x) = x + 2
Utilizando una Gráfica para Definir una Función Una gráfica determina un conjunto de pares ordenados con números reales correspondientes a las coordenadas de los puntos en la gráfica. Este conjunto de pares ordenados, determinados por la gráfica, puede o no puede definir una función. Es importante recordar que para definir una función, el conjunto de pares ordenados debe obedecer la regla que establece que dos pares ordenados no deben tener el mismo primer elemento. Por lo tanto, una línea vertical no puede intersectar la gráfica de una función en más de un punto. Figuras: 76
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
La figura 1 define una función, mientras que la figura 2 no define una función. Los Ceros de una Función Un cero de una función es la solución de una ecuación f(x) = 0. Los ceros de una función corresponden a los puntos en los cuales la gráfica de la función atraviesa el eje de x. Estos puntos son llamados interceptos en x. Por ejemplo:
En la figura 1 los interceptos en x son X1, X2 y X3. La figura 2 no tiene ningún intercepto en x.
77
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Ciencias Experimentales Ecología
Por calentamiento global se entiende un aumento (en el tiempo) de la temperatura media de la atmósfera terrestre y de los océanos. En la práctica se habla de calentamiento global para referirse al calentamiento observado durante las últimas décadas. Se postula que la temperatura se ha elevado desde finales del siglo XIX debido a la actividad humana, principalmente por las emisiones de dióxido de carbono que incrementaron el efecto invernadero. La teoría predice, además, que las temperaturas continuarán subiendo en el futuro si continúan las emisiones de gases invernadero. La denominación "calentamiento global" generalmente implica la actividad humana. Una denominación más neutral, cambio climático, se utiliza normalmente para designar a cualquier cambio en el clima, sin entrar en discusiones sobre su causa. En cambio, para indicar la existencia de influencia humana a veces se utiliza el término cambio climático antropogénico. Es necesario recalcar que calentamiento global y efecto invernadero no son sinónimos, más bien se cree que el efecto invernadero sería la causa del calentamiento global observado. Frecuentemente la discusión se centra en la temperatura, pero el calentamiento global o cualquier tipo de cambio climático pueden implicar cambios en otras variables: las lluvias globales y sus patrones, la cobertura de nubes y todos los demás elementos del sistema atmosférico. La complejidad del problema y sus múltiples interacciones hacen que la única manera objetiva de evaluar simultáneamente estos cambios sea a través del uso de modelos computacionales que intentan simular la física de la atmósfera y del océano. El cuerpo multigubernamental y científico encargado de su análisis global es el IPCC (siglas en inglés del Inter-Governmental Panel on Climate Change o Panel Intergubernamental sobre el Cambio Climático). Una de sus líneas de acción más visibles es el Protocolo de Kyoto, que promueve una reducción de emisiones contaminantes (principalmente gases de efecto invernadero) por parte de los países industrializados. Se denomina agujero de ozono a la zona de la atmósfera terrestre dónde se producen reducciones anormales de la capa de ozono, fenómeno anual observado durante la primavera en las regiones polares y que es seguido de una recuperación durante el verano. Sobre la Antártida la pérdida de ozono llega al 70%, mientras que sobre el Ártico llega al 30%. Esta reducción se debe, según un amplio consenso científico, al aumento de la concentración de cloro en la estratósfera debido a las emisiones antropogénicas de compuestos clorofluorocarbonados (CFCs). Dado que la capa de ozono evita el paso de las ondas de luz ultravioleta más dañinas, la disminución existente del ozono y las proyecciones futuras generaron tal preocupación a nivel mundial, que se llegó a una rápida adopción de la prohibición del uso de los CFC. Se espera que, si estas normas se mantienen, alrededor del año 2050, ambos agujeros se hayan reducido. El viernes día 13 de mayo de 2005, salió en los medios de comunicación que los científicos que estudian el agujero de ozono habían descubierto que éste seguía creciendo. En septiembre de 1987 varios países firmaron el Protocolo de Montreal, en el que se comprometían a reducir a la mitad la producción de CFC´s en un periodo de 10 años. La situación, hoy, es más alarmante de lo que la el público pueda pensar, por la baja intensidad de aparición en los medios masivos de comunicación, y el acuerdo no ha sido suficiente para solucionarlo. Para algunos expertos, la solución pasa por la supresión de los CFC cambiándolos con nuevas tecnologías y la supresión de CFC de todos los procesos industriales. Expertos en salud medioambiental y cardiólogos de la Universidad de California del Sur (EE.UU), acaban de demostrar por primera vez lo que hasta ahora era apenas una sospecha: la contaminación ambiental de las grandes ciudades afecta la salud cardiovascular. Se comprobó que existe una relación directa entre el aumento de las partículas contaminantes del aire de la ciudad, y
78
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
el engrosamiento de la pared interna de las arterias (la "íntima media"), que es un indicador comprobado de aterosclerosis. El efecto persistente de la contaminación del aire respirado, en un proceso silencioso de años, conduce finalmente al desarrollo de afecciones cardiovasculares agudas, como el infarto. Al inspirar partículas ambientales con un diámetro menor de 2,5 micrómetros, ingresan en las vías respiratorias más pequeñas y luego irritan las paredes arteriales. Los investigadores hallaron que por cada aumento de 10 microgramos por metro cúbico de esas partículas, la alteración de la pared íntima media de las arterias aumenta un 5,9 por ciento. El humo del tabaco y el que en general proviene de los caños de escape de los autos producen la misma cantidad de esas partículas. Normas estrictas de aire limpio contribuirían a una mejor salud con efectos en gran escala. Por desertificación o desertización se entiende el proceso por el que un territorio que no posee las condiciones climáticas de los desiertos, termina adquiriendo las características de éstos. Esto sucede como resultado de la destrucción de su cubierta vegetal y de la erosión del suelo. Según datos del Programa de las Naciones Unidas para el Medio Ambiente (PNUMA), el 35 % de la superficie de los continentes puede considerarse como áreas desérticas. Dentro de estos territorios sobreviven millones de personas en condiciones de persistente sequía y escasez de alimentos. La expansión de estos desiertos se debe tanto a causas naturales como humanas. La deforestación es el proceso de desaparición de masas forestales (bosques), fundamentalmente causada por la actividad humana. La deforestación está directamente causada por la acción del hombre sobre la naturaleza, principalmente debido a las talas realizadas por la industria maderera, así como para la obtención de suelo para cultivos agrícolas. En los países más desarrollados, se producen otras agresiones como la lluvia ácida que comprometen la supervivencia de los bosques, situación que se pretende controlar mediante la exigencia de requisitos de calidad para los combustibles, como la limitación del contenido de azufre. En los países menos desarrollados, las masas boscosas se reducen año tras año, mientras que en los países industrializados se están recuperando debido a las presiones sociales, reconvertiéndose los bosques en atractivos turísticos y lugares de esparcimiento. Sin embargo, debe tenerse en cuenta que las plantaciones de reforestación no sustituyen en ningún caso al bosque, ya que éste es un ecosistema que tarda décadas y en algunos casos siglos en formarse, constituyendo el bio-sistema óptimo de aprovechamiento de la luz solar. En cambio la reforestación en el mejor de los casos es un conjunto de árboles situados según una separación fijada artificialmente, entre los cuales surge una vegetación herbácea o arbustiva que no suele darse en el bosque. Y en el peor de los casos, se plantan árboles no autóctonos que en ocasiones dañan el sustrato, como ocurre en muchas plantaciones de pino, abeto o eucalipto. Una consecuencia de la deforestación es la desaparición de sumideros de dióxido de carbono, reduciéndose la capacidad del medio de absorber las ingentes cantidades de este gas causante del efecto invernadero, y agravando el problema del calentamiento global. Como medida de contención, diversos organismos internacionales proponen la reforestación, medida parcialmente aceptada por los movimientos ecologistas, al entender éstos que en la repoblación debe considerarse no sólo la eliminación del dióxido de carbono, si no además, la biodiversidad de la zona a repoblar.
Salud y enfermedad Salud es una condición que todos tratamos de alcanzar y mantener, pues de ella depende- en gran medida- nuestra felicidad.
79
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El continuo proceso de adaptación al medio ambiente que vive nuestro organismo - del cual te hemos hablado en números anteriores- está precisamente destinado a lograr un adecuado estado de salud. Bienestar completo Los términos salud y enfermedad tienen significados más trascendentes que los que habitualmente se les asignan. Ello se refleja en la definición que ha hecho la Organización Mundial de la Salud (OMS) de salud: "un estado de completo bienestar físico, mental y social, y no sólo la ausencia de enfermedad o afecciones". Esto nos recuerda que el hombre no es sólo es un ser físico, sino también un ser psíquico y social. Por lo tanto, enfermedad - además de estar postrado en cama- incluye la pérdida, alteración o desorden de las óptimas condiciones tanto físicas, como mentales y sociales.
Preocupación social Un organismo sano permite al hombre realizar normalmente sus actividades. Mientras mejor es el estado de salud de una comunidad, mayor es la aptitud para el trabajo. Hay más producción, más fuentes de riqueza y, por consiguiente, más bienestar general. Por ello, la salud es una preocupación de toda la sociedad por prevenir y combatir las enfermedades. En este contexto, la definición de la OMS nos hace mirar la salud desde una perspectiva más amplia que simple la ausencia de afecciones o enfermedades. Así, podemos decir que tampoco se alcanza un adecuado estado de salud cuando - por ejemplo- la vivienda es mala, escasean los alimentos, hay poca agua potable, no existe una convivencia armoniosa, o el modo de vida está marcado por la adicción a los tóxicos, o el estrés y la angustia imperan en la vida de las personas
Clasificación de las enfermedades El hombre ha luchado constantemente contra la enfermedad, buscando la prolongación de la vida y defendiendo la salud. En la segunda mitad del siglo XIX, ilustres científicos consagraron su vida a esta tarea. Entre ellos, Eduardo Jenner, Louis Pasteur, Roberto Koch, Joseph Lister. El biólogo francés Louis Pasteur (1822-1895) destaca brillante porque fue el primero en formular una hipótesis sobre la existencia de los microbios, y demostrar su validez. Por ello es considerado uno de los más grandes investigadores de la ciencia moderna.
Distintos tipos Día a día se descubren nuevas enfermedades y sus causas, así como también los remedios y las vacunas para combatirlas. Los científicos han clasificado las dolencias de acuerdo a distintos tipos, que te detallamos a continuación: •
Enfermedades nutricionales: se producen cuando la alimentación es inadecuada, ya sea en calidad o en cantidad. Por ejemplo la desnutrición y la obesidad.
80
• • • • • • • •
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Enfermedades infectocontagiosas: causadas por microbios patógenos. Por ejemplo cólera, Sida y tuberculosis. Enfermedades degenerativas: originadas por la degeneración o desgaste de un órgano. Ejemplo: arterioesclerosis. Enfermedades funcionales: caracterizadas por el anormal funcionamiento de algún o algunos órganos del cuerpo. Por ejemplo, bocio y enanismo. Enfermedades mentales: son perturbaciones en la conducta de la persona y, por lo tanto, alteran su equilibrio psicológico. Por ejemplo, esquizofrenia y neurosis. Enfermedades traumáticas: originadas por golpes o accidentes. Por ejemplo, fracturas y esguinces. Enfermedades hereditarias: causadas por factores que residen dentro del propio organismo, por herencia de los padres. Por ejemplo, la hemofilia. Enfermedades alérgicas: se deben a la acción conjunta de un factor interno y otro factor externo, ocasionando el fenómeno de la alergia. Esta puede ser de naturaleza respiratoria, cutánea o digestiva. Por ejemplo: asma y edema. Enfermedades profesionales: son aquellas que se desarrollan como resultado del ejercicio de una determinada actividad o profesión. Por ejemplo: las lesiones pulmonares de los mineros y los problemas auditivos de los radioperadores.
Agentes patógenos De los distintos tipos de enfermedades que te presentamos, queremos que conozcas algo más de aquellas de tipo infectocontagioso, por la influencia que ellas han ejercido en el quehacer humano. Los agentes que producen las enfermedades infectocontagiosas o transmisibles, se presentan como una gran variedad de microorganismos o gérmenes patógenos, llamados así pues generan estos males. La mayoría de los agentes patógenos son parásitos (viven a expensas de otro). Algunos de ellos no causan daño, por lo tanto, aunque estén presentes en un organismo no aparecen síntomas de enfermedad. Además, pese a que gran parte de las enfermedades infecciosas están relacionadas con la presencia de parásitos, no todos los parásitos son patógenos, y no todos los patógenos son parásitos. En las siguientes páginas, revisaremos algunos de los agentes patógenos más conocidos en la actualidad.
Los Virus Una de las mejores maneras de aprender qué son los virus es analizando las caraterísticas que los diferencian de otros agentes patógenos. Los virus no presentan una estructura celular, no se mueven por sí solos y no pueden desarrollar actividades vitales en forma independiente. Cuando los virus se reproducen, lo hacen dentro de las células vivas a las cuales infectan. Se puede decir que los virus son parásitos obligados: viven sólo cuando invaden células vivas, y pueden ser cultivados sólo en tejidos vivos. Los virus tienen un tamaño pequeñísimo. El diámetro de aquellos que son responsables de las enfermedades humanas varía entre las 15 y 300 millonésimas de milímetro.
¿Son los virus seres vivos? Esta es una interrogante que muchos científicos se han planteado.
81
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Ello se debe a que los virus presentan características tanto de la materia viva como de la materia inerte. De la materia viva: los virus se reproducen. Para existir requieren células vivas, y por eso son necesariamente parásitos. De la materia inerte: son capaces de cristalizar. Cuando se les extrae de la materia que parasitan, pueden permenecer así definitivamente, pero si entran de nuevo a una célula viva, vuelven a reproducirse. Algunos biólogos consideran a los virus como una etapa de transición entre lo vivo y lo no vivo. Algunas enfermedades humanas producidas por los virus son: gripe, paperas, poliomelitis, rubéola, sarampión, sida y viruela.
Las bacterias Corrientemente la palabra bacteria se asocia a enfermedad; sin embargo las bacterias patógenas constituyen una minoría del total. Las bacterias son organismos microscópicos unicelulares, que se encuentran en cualquier parte en la cual pueda existir vida y -la mayoría de las veces- en gran número. Para el hombre, no todas las bacterias son patógenas. Muchas de ellas son útiles para actividades como la agricultura y en el propio organismo humano. Por ejemplo, la flora bacteriana del intestino, permite digerir la celulosa de algunos alimentos, y las llamadas saprófitas, realizan la putrefacción de las materias orgánicas.
Atendiendo a su forma, las bacterias pueden ser clasificadas en: • • •
Esféricas o cocos. Alargadas o bacilos. Espiriladas o espirilos
La razón por la cual muchas bacterias son parásitas es que ellas carecen de clorofila, por lo que no pueden sintetizar sus nutrientes. Por lo mismo son patógenas, causando la enfermedad por la producción de una sustancia tóxica llamada toxina. Las condiciones indispensables para que las bacterias puedan reproducirse son: que tengan alimento, que haya oxígeno, que exista la temperatura adecuada - idealmente 37 grados Celsius-, y que exista humedad y oscuridad. De este modo, la bipartición de ellas se produce, en término medio, una vez cada 30 minutos. Así, en el lapso de 24 horas, las bacterias podrían llegar en un organismo a la fabulosa cantidad de 75 billones de descendientes. La naturaleza lucha fuertemente contra este avasallador avance, ya que -de lo contrario- el mundo estaría lleno de bacterias. Lo hace limitando las sustancias que las nutren y mediante la producción -por parte de las mismas bacterias- de excreciones que disminuyen su posterior desarrollo.
Conozcamos otros gérmenes Además de los virus y las bacterias, existen otros gérmenes patógenos que queremos que conozcas. Ellos son las rickettsias, los hongos y los protozoos, responsables de molestas afecciones al organismo humano.
82
Rickettsias
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Se trata de un pequeño grupo de microorganismos causantes de algunas enfermedades infecciosas. Las rickettsias son de menor tamaño que las bacterias y más grandes que los virus. Poseen características de estos dos grupos. Son unicelulares, y se reproducen por fisión (igual que las bacterias), pero sólo pueden crecer y reproducirse en células vivas (como los virus). Su nombre proviene del apellido del bacteriólogo estadounidense Howard T. Rickett, quien murió afectado de tifus petequial, del cual es responsable la rickettsia provazeki. Otras enfermedades humanas producidas por estos microorganismos son el tifus exantemático transmitido por los piojos-, el tifus murino- trasmitido por ratas y pulgas-, la fiebre maculosatrasmitida por las garrapatas-, y la viruela rickettsial - transmitida por ácaros-.
Hongos Son microorganismos celulares vegetales, sin clorofila. Esto los convierte en heterótrofos, lo que quiere decir que no sintetizan su alimento y dependen de otros seres para sobrevivir. En algunos casos, los hongos sintetizan sustancias de gran utilidad, como la penicilina. Generalmente viven sobre sustancias en descomposición. Las afecciones producidas por las especies patógenas que existen en este grupo de microorganismos se llaman micosis. En el hombre dañan de preferencia la piel, por ejemplo, el pie de atleta y la tiña.
Protozoos Son animales unicelulares y su tamaño varía entre dos y veinte micrones, movilizándose por medio de pseudópodos, cilios o flagelos. Las formas de los protozoos son tan variadas, que no podría hacerse una caracterización de ellos. Ejercen su acción patógena sobre animales superiores y en el hombre. Muchas de las llamadas enfermedades tropicales son producidas por los protozoos. Por ejemplo la malaria -transmitida por el mosquito Anopheles-, la denominada enfermedad del sueño -transmitida por la mosca tse tse-, y la enfermedad de Chagas -transmitida por la vinchuca.
La cadena infecciosa: tres eslabones fundamentales Para todos los microbios patógenos es esencial la existencia de un medio de propagación desde la fuente infecciosa hasta el individuo, al cual llegan por determinadas "puertas de entrada". Esto nos lleva a distinguir los tres eslabones fundamentales de la cadena infecciosa: fuente infecciosa, medio de propagación y hombre sano. a) Fuente infecciosa: es aquella de donde provienen los microbios. Puede ser un hombre o un animal. Por ejemplo, en los casos de la rabia y la peste bubónica podemos identificar como fuentes infecciosas al perro y la rata, respectivamente. Y en el de la tuberculosis, el hombre mismo. b) Medios de propagación: es el o los agentes que hacen posible el traslado de los microbios desde la fuente infecciosa hasta el hombre sano. Por ejemplo, el aire. Algunos microbios patógenos se transmiten por contacto directo, como ocurre con las enfermedades de transmisión sexual, entre ellas la sífilis, la gonorrea y el Sida.
83
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El alimento y el agua son dos de las vías más importantes de propagación de gérmenes. Males como la fiebre tifoidea, el cólera, la diarrea y la hepatitis, se originan de esta forma. c) Hombre sano: organismo sin problema que es invadido por los microbios patógenos.
Etapas de una enfermedad
Uno de los aspectos fundamentales de las enfermedades infectocontagiosas es su carácter evolutivo. Es decir, el mal evoluciona desde una fase de incubación a otra de invasión y localización, hasta llegar a una fase final. Esta puede ser el restablecimiento de la salud o la muerte del paciente.
Analicemos las etapas de una enfermedad cuando ésta se supera. • • •
Período de incubación: comprende desde la entrada de los gérmenes al organismo hasta la aparición de los primeros síntomas. En esta etapa se multiplican los microbios en el interior del cuerpo. Período de desarrollo: hay una lucha entre el microbio patógeno y el organismo. Aparecen los síntomas propios de la enfermedad. Período de convalecencia: el organismo se recupera lentamente. En esta etapa son necesarios una adecuada alimentación y bastante reposo.
Defensas orgánicas: el organismo da la pelea El organismo humano tiene tres barreras básicas para combatir las enfermedades infectocontagiosas: la piel y las mucosas (externas e internas), la sangre y los órganos linfáticos. La piel es el revestimiento externo del organismo, incluyendo sus salientes y entrantes. Su espesor varía entre dos y cinco milímetros, y está compuesta por dos capas fundamentales: la epidermis o externa y la dermis o interna. La epidermis mide aproximadamente 1 milímetro. Sus células externas están muertas y constituyen una serie de laminillas superpuestas, que forman una barrera para impedir la penetración de los microbios. La dermis posee -entre otras estructuras- vasos sanguíneos, vasos linfáticos, glándulas sudoríparas, glándulas sebáceas y bulbos pilosos (raíces de los pelos). Las mucosas son membranas que tapizan las cavidades externas de nuestro organismo. Secretan una sustancia viscosa llamada mucus. En las vías respiratorias, las mucosas están provistas de cilios vibrátiles. Estos se mueven para rechazar y empujar hacia el exterior sustancias y partículas ajenas a nuestro organismo. Dichas sustancias y partículas sirven de vehículo a agentes patógenos. La cantidad de mucus secretado aumenta en los estados infecciosos o en las inflamaciones como por ejemplo, en gripes o inflamaciones en las vías respiratorias. La sangre está constituida por dos partes: una líquida y otra figurada. Para cumplir con su labor defensiva, cuenta con dos mecanismos, que son la fagocitosis y la reacción antígeno-anticuerpo. Los órganos linfáticos están diseminados por todo el cuerpo, y por ellos circula la linfa. Si las bacterias llegan a penetrar en ellos son detenidas por los filtros que constituyen los ganglios linfáticos. En los ganglios linfáticos, las bacterias son atacadas por los glóbulos blancos, retenidas y fagocitadas. Si la infección es muy grande, los ganglios se inflaman y duelen.
84
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
La inmunidad puede ser definida como la capacidad que tiene el organismo para resistirse a la infección por microorganismos patógenos.
Pueden distinguirse dos tipos de inmunidad: • •
Inmunidad natural: es aquella con la cual el individuo nace. Se produce por los anticuerpos que la madre transfiere al hijo, durante el embarazo, a través de la placenta. También se llama inmunidad innata. Inmunidad adquirida: puede dividirse en activa y en pasiva. o Inmunidad activa: surge cuando el organismo crea anticuerpos como consecuencia de alguna enfermedad o por vacunación. o Inmunidad pasiva: se produce cuando los anticuerpos son suministrados al organismo por medio de sueros. Esta inmunidad es temporal, porque después de un tiempo el cuerpo elimina dichos anticuerpos.
Física Es la ciencia natural cuyo objeto es el estudio de los fenómenos en los que no cambia la composición (naturaleza íntima) de las sustancias que intervienen en ellos. Cuando la composición se modifica y las sustancias se convierten en otras, no se trata de un fenómeno físico sino de un fenómeno químico. Es comparar con una unidad patrón previamente elegida. Sistemas de unidades Las diferentes unidades de la Física suelen, en muchos casos, agruparse en 3 sistemas principales: •
el sistema cgs (o de Gauss): apto para las mediciones habituales de laboratorio. Su nombre proviene de las iniciales de las unidades fundamentales que utiliza: cm (centímetro - para el espacio), g (- gramo - para la masa) y s (- segundo - para el tiempo).
•
el sistema MKS: apto para medición de dimensiones mayores. Su nombre también proviene de las unidades fundamentales que utiliza: m (- metro - para el espacio), kg (kilogramo - para la masa) y s (- segundo - para el tiempo).
•
el sistema técnico: utilizado en ingeniería porque toma como unidad fundamental el Kg fuerza y no el kg masa.
Unidades de espacio:
El espacio (distancia entre 2 puntos) tiene como unidad patrón internacional el METRO. Un METRO era, inicialmente (1889), la diezmillonésima parte de la longitud del cuadrante terrestre que va desde el Polo Norte hasta el ecuador, pasando por París. Esa unidad se registró colocando dos marcas sobre una barra de Platino-Iridio. Las dificultades que originaba la reproducción de esa medida hicieron que en 1960 se definiera al METRO como 1.650.763,73 veces la longitud de onda de la luz anaranjada emitida por el Kriptón86 encerrado en gas Kriptón cuando se lo somete a una descarga eléctrica. Tampoco era sencilla de reproducir. En 1983 se redefinió el METRO como la distancia recorrida por la luz en el vacío en 1/299.792.456 segundos (1/c, donde c es la velocidad de la luz en el vacío).
85
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Es la unidad de espacio en los sistemas MKS y técnico. Algunos múltiplos del METRO (m) son: •
el decámetro (Dm o dam) = 10 m = 101 m
•
el hectómetro (hm) = 100 m = 102 m
•
el kilómetro (km) = 1.000 m = 103 m
Algunos submúltiplos del METRO (m) son: •
el decímetro (dm) = 0,1 m = 10-1 m
•
el centímetro (cm) = 0,01 m = 10-2 m (unidad de espacio en el sistema cgs).
•
el milímetro (mm) = 0,001 m = 10-3 m
•
el micrón (micra) = 1 milésima de mm = 10-6 m
•
el milimicrón (milimicra) = 10-9 m
•
el ángstrom = 10-10 m
Para las medidas de superficie se utiliza como unidad el METRO CUADRADO y las conversiones se realizan elevando al cuadrado los factores vistos para las unidades de espacio.
Para las medidas de volumen se utiliza como unidad el METRO CÚBICO y las conversiones se realizan elevando al cubo los factores vistos para las unidades de espacio.
Unidades de tiempo: El tiempo tiene como unidad patrón internacional el SEGUNDO. Hasta 1960, un SEGUNDO era la 86.400 ava parte de 1 día solar medio. A partir de esa fecha, un SEGUNDO es el tiempo durante el cual se efectúan 9.192.631.770 transiciones del Cesio-133 entre sus dos estados más bajos de energía. Es la unidad de tiempo en los sistemas cgs, MKS y técnico. Algunos múltiplos del SEGUNDO (s) son, en sistema sexagesimal (Babilonia): •
el minuto = 60 s
•
la hora = 60 min = 3.600 s
Algunos submúltiplos del SEGUNDO (s) son, en sistema decimal: •
1 milisegundo = 10-3 s
•
1 microsegundo = 10-6 s
•
1 nanosegundo = 10-9s
• Unidades de masa:
86
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
La masa es, en realidad, una medida de la "inercia", es decir, de la tendencia de un cuerpo a mantener su estado de movimiento en magnitud y en dirección. Está relacionada con la cantidad y calidad de átomos que lo forman. En condiciones normales es considerada como constante, aunque la teoría de la relatividad (Einstein) permite demostrar que varía con la velocidad con que se mueve (importante solamente para velocidades cercanas a la de la luz). La unidad internacional de masa es el KILOGRAMO patrón, que es la masa de un cilindro de Platino-Iridio que se guarda en Sèvres (Francia).
Es la unidad de masa en el sistema MKS. Algunos múltiplos y submúltiplos del KILOGRAMO MASA (kg) son: •
la tonelada métrica = 103 kg
•
el gramo = 10-3 kg (unidad de masa en el sistema cgs).
•
el miligramo = 10-6 kg
•
la uma (unidad de masa atómica) = 1,66 x 10-27 kg
•
la UTM (unidad técnica de masa o unidad de masa en el sistema técnico) = 9,8 Kg
• Unidades de velocidad: Se denomina "velocidad" de un cuerpo en movimiento a la relación entre el espacio recorrido y el tiempo empleado. (v = e/t). Es una medida de la variación de la posición de un cuerpo con el paso del tiempo. Las unidades de velocidad surgen de la relación (razón o cociente) entre las unidades de espacio y las de tiempo. Algunas de las más utilizadas son: •
el centímetro por segundo (cm/s) (unidad de velocidad en el sistema cgs).
•
el metro por segundo (m/s) (unidad de velocidad en los sistemas MKS y técnico).
•
el kilómetro por hora (km/h)
•
las revoluciones (vueltas) por minuto (RPM)
De allí surgen fácilmente relaciones tales como: •
1 m/s = 102 cm/s
•
l km/h = 1/3,6 m/s
•
1 m/s = 3,6 km/h
Unidades de aceleración: Se denomina aceleración a la variación de una velocidad en magnitud, sentido o dirección. Es, por tanto, la variación de una variación, ya que la velocidad es una medida de la variación de la posición de un cuerpo con el paso del tiempo. a = v/t = (e/t)/t = e/t2 Las unidades de aceleración surgen de la relación (razón o cociente) entre las unidades de espacio y las de tiempo, estas últimas elevadas al cuadrado (solamente por razones matemáticas, pues el concepto de "tiempo al cuadrado" no existe). Algunas de las más utilizadas son: •
el centímetro por segundo al cuadrado (cm/s2) (unidad de aceleración en el sistema cgs).
87
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
•
el metro por segundo al cuadrado (m/s2) (unidad de aceleración en los sistemas MKS y técnico).
•
el kilómetro por hora al cuadrado (km/h2)
• Unidades de fuerza: La presencia de una fuerza solamente puede apreciarse por sus efectos. Es la causa que puede modificar el estado de movimiento (magnitud y/o dirección) de un cuerpo. Cuando a un cuerpo se le aplica una fuerza se modifica su estado de inercia (tendencia a conservar su estado de movimiento). Ambas circunstancias pueden unificarse diciendo que cuando a un cuerpo se le aplica una fuerza (causa) se genera una aceleración (efecto). De la 2da. ley de Newton, que define aceleración como la razón entre la fuerza aplicada y la masa que recibe esa fuerza (a = F/m) puede deducirse la fuerza como el producto de la masa por la aceleración (F = m . a) y de allí se obtiene: •
en el sistema cgs: g cm/s2 , que recibe el nombre de "dina" (Din) (término que, en griego, significa "fuerza").
•
en el sistema MKS: kg m/s2 , que recibe el nombre de "Newton" (N) (en homenaje al científico inglés).
En el sistema técnico, la unidad de fuerza es una unidad fundamental (no derivada de otras), el Kg fuerza, que es el peso del Kg masa patrón guardado en Sèvres, medido a nivel del mar y a 45º de latitud. De allí se obtiene la unidad de masa en el sistema técnico (UTM) deduciendo que: m = F/a y por tanto será kg/(m/s2), es decir, kg s2/m La aceleración que relaciona el Peso (fuerza con que la Tierra atrae a una masa) con esa masa atraída (medido a nivel del mar y a 45º de latitud) es la llamada "aceleración de la gravedad" (g) y tiene un valor de 9,8 m/s2.
Podemos establecer así que: Peso = masa . g **** Nota importante: No confundir kg (masa) con Kg (fuerza). Son unidades de dos magnitudes diferentes. La única relación que tienen es que l Kg (fuerza) es la fuerza con que la Tierra atrae 1 kg (masa) a nivel del mar y a 45º de latitud. Por tanto, pueden establecerse las relaciones entre las unidades en los distintos sistemas: •
l Kg (fuerza) = 9,8 N
•
1 N = 1/9,8 Kg (fuerza)
•
1 N = 105 Din
•
1 Din = 10-5 N
Unidades de trabajo:
88
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Se denomina "trabajo" (W - por "work" en inglés o "Werk" en alemán) a la medida de uno de los efectos posibles de la aplicación de una fuerza: el desplazamiento de un cuerpo, es decir, su cambio de posición. "Una fuerza realiza trabajo cuando hay desplazamiento del cuerpo sobre el cual se aplica. La fuerza debe contribuir al movimiento." (Prof. Armando Villamizar V.- M.D.U. Univ. de Los Andes Colombia) Las unidades de trabajo se obtienen multiplicando la fuerza aplicada por la distancia recorrida: W=F.e de donde: •
en el sistema cgs: Din . cm, que recibe el nombre de "ergio" (erg) (por "energía" en griego).
•
en el sistema MKS: N . m, que recibe el nombre de "Julio" (J) (en honor al científico francés Joule).
•
en el sistema técnico: Kg (fuerza) . m (Kgrm), que recibe el nombre de Kilográmetro.
Como la energía es la capacidad de producir trabajo, también pueden usarse las unidades de trabajo como unidades de muchos tipos de energía, especialmente la energía mecánica (cinética y potencial).
Como el llamado "momento" de una fuerza, utilizado en el caso de las rotaciones alrededor de un punto (palancas, balanzas, etc.), es el producto de una fuerza por la distancia que la separa del punto alrededor del cual rota, también las unidades de trabajo se utilizan como unidades de momento.
Unidades de potencia: Se conoce como "potencia" la eficiencia de una fuerza para realizar un determinado trabajo, es decir, la cantidad de trabajo realizado por unidad de tiempo:
P = W/t
Algo o alguien es más "potente" cuando puede realizar más trabajo en la unidad de tiempo, o tarda menos tiempo para realizar el mismo trabajo. Es una medida de la rapidez con que se efectúa un trabajo.
Las unidades se obtienen de la fórmula recién expresada: •
en el sistema cgs, la unidad de potencia es el erg/s.
•
en el sistema MKS, la unidad de potencia es el J/s, conocida como "Vatio" (W) (en honor al científico inglés Watt).
•
en el sistema técnico, la unidad de potencia es el Kgrm/s.
•
en Inglaterra y otros países de origen británico, se utiliza la libra-pie/s.
•
un múltiplo importante y muy usado es el kW (kilovatio), equivalente a 1.000 W.
89
•
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
también la potencia se expresa en HP (caballos de fuerza - ingleses), equivalentes a 76,6 Kgrm/s, o en CV (caballos vapor - franceses), equivalentes a 75 Kgrm/s.
El concepto de Energía:
La energía es, a nuestro entender, el principio y el fin del universo que conocemos. De la energía proviene la masa (que Lavoisier llamaba "materia") y el destino de toda masa es convertirse nuevamente en energía. La energía como tal, más la masa (energía concentrada de modo de estar ocupando un lugar en el espacio, es decir, en el resto de la energía), conforman la "materia" (el "Todo", en oposición a la "Nada").
Todo ocurre en el Universo bajo un principio: reducir la energía de un sistema. Por ello los cuerpos caen, el agua caliente se enfría, etc. Hay una especialidad de la Física (llamada "Termodinámica") que brinda interesantes explicaciones sobre esto.
La energía se nos presenta en formas muy variadas: mecánica, térmica, eléctrica, luminosa, atómica, etc.
Aquí solamente vamos a referirnos a la ENERGÍA MECÁNICA. Existen 2 formas de energía mecánica: •
la energía potencial: que depende de la posición que ocupa un cuerpo (por ejemplo, la altura a la que se encuentra). En general su fórmula es: Ep = m . g . h (donde m = masa, g = aceleración de la gravedad, y h = altura).
•
la energía cinética: debida al movimiento que realiza en ese momento (en realidad, de la velocidad del mismo). En general su fórmula es : Ec = m . v2 (donde m = masa, y v = velocidad).
La Energía Mecánica Total es la suma de ambas y es generalmente constante.
EMT = Ep + Ec
Como dijimos antes, las unidades de estas energías son las mismas que las del trabajo, ya que "la energía es una medida de la capacidad de producir trabajo".
Mecánica Partes de la Física Mecánica: En función del objeto de su estudio, podemos dividir la Física Mecánica en tres partes o ramas: •
Estática: es la parte de la Mecánica que estudia las fuerzas que actúan en un sistema sin tener en cuenta los efectos que su acción provoca.
90
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
•
Dinámica: es la parte de la mecánica que estudia los efectos provocados por las fuerzas, fundamentalmente los cambios en la dirección y/o magnitud de las velocidades. Estos cambios se denominan "aceleraciones". Aquí introdujo Newton sus principios fundamentales: el de inercia, el de masa y el de acción y reacción.
•
Cinemática: es la parte de la mecánica que estudia los movimientos, generalmente sin tener en cuenta ni las fuerzas que los provocan ni las masas sobre las que actúan.
Por qué las fuerzas se representan por vectores
Una fuerza queda definida cuando se expresan: 1. Su dirección: la recta sobre la que actúa. 2. Su sentido: la semirrecta de esa recta sobre la que actúa (sentido + ó sentido -). 3. Su punto de aplicación: el punto en el cual se puede considerar aplicada. 4. Su intensidad: su módulo (cantidad) (en una unidad determinada: Kg fuerza, Newton, etc.) En Geometría, definimos: •
como "recta", una sucesión infinita de puntos alineados sin principio ni fin,
•
como "semirrecta", una sucesión infinita de puntos que tiene un origen o comienzo pero no tiene fin,
•
como "segmento", una sucesión finita de puntos que tiene un origen y tiene un fin, y
•
como "vector", un segmento orientado (hacia un extremo del segmento o hacia el opuesto).
Por tanto, un vector queda definido cuando se expresan: 1. Su dirección: la recta sobre la que actúa, 2. Su sentido: su orientación hacia un extremo o hacia el opuesto, 3. Su punto de aplicación: el punto en el cual tiene su origen, 4. Su medida (en una unidad determinada: m, cm, etc.) Si comparamos qué elementos necesita una fuerza para quedar definida, y qué elementos necesita un vector para quedar definido, vemos que son prácticamente los mismos, o, al menos, podemos hacerlos equiparables. Por esta razón, las fuerzas (elementos naturales que solamente son detectables y medibles por sus efectos estudiados por la Física) se suelen representar gráficamente mediante vectores (elementos artificiales creados y estudiados por la Geometría).
En definitiva, las fuerzas no son vectores ni los vectores son fuerzas. La fuerza es una magnitud vectorial porque requiere los mismos elementos que un vector y, además, éste permite representarla gráficamente sobre un papel en la recta, en el plano o en el espacio.
Las magnitudes que quedan definidas con solamente expresar su magnitud se denominan "escalares", por ejemplo la masa, el volumen, etc. Composición de fuerzas
91
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Varias fuerzas casi siempre pueden "componerse", es decir, reemplazarse por una única fuerza llamada "resultante" cuyos efectos sean los mismos que producían aquéllas. Existen varias posibilidades típicas que mencionaremos pero que no desarrollaremos en este trabajo.
a) fuerzas sobre una misma recta de acción (con igual dirección o "colineares"): •
con el mismo sentido: la fuerza resultante tiene la misma dirección y sentido que las fuerzas componentes, su punto de aplicación es cualquiera de los de su recta de acción y su medida es la suma de las medidas de las componentes.
•
con sentido opuesto: la fuerza resultante tiene la misma dirección que las fuerzas componentes, su sentido es el de la componente mayor, su punto de aplicación es cualquiera de los de su recta de acción y su medida es la diferencia de las medidas de las componentes.
b) fuerzas concurrentes (con el mismo punto de aplicación):
En el caso de sólo dos fuerzas componentes, la resultante se obtiene gráficamente por aplicación de la llamada "regla del paralelogramo" o, en caso de tratarse de más de dos fuerzas concurrentes, por la construcción de un polígono con ellas.
La medida de la resultante no es la suma de las medidas de las componentes sino su “composición", en la que influyen la dirección y el sentido de cada una de las componentes.
Del mismo modo, la unión del punto de aplicación con el extremo final de la última fuerza nos indicará la dirección y el sentido de esa resultante.
En realidad, y como ya hemos dicho, no estamos gráficamente resolviendo un sistema de fuerzas sino un sistema geométrico con los vectores que las representan. También en útil representar las fuerzas en un sistema de coordenadas cartesianas ortogonales, proyectar las fuerzas sobre ambos ejes para obtener sus valores sobre cada uno de ellos, y luego, aplicando el teorema de Pitágoras, encontrar el valor de la resultante, y usando la trigonometría, su dirección y sentido.
c) fuerzas paralelas: •
con el mismo sentido: la resultante tiene una medida igual a la suma de las medidas de las componentes, su dirección es paralela a las de las componentes (ubicada entre ellas y más cerca de la mayor), y su sentido es el mismo que el de aquéllas. El punto de aplicación se determina mediante la llamada "relación de Stevin" que dice que "cada fuerza es directamente proporcional al segmento determinado por los puntos de aplicación de las otras fuerzas". Puede aplicarse también el método gráfico llamado "del funicular".Ver con más detalle estos métodos en cualquier texto o trabajo especializado.
•
con sentido opuesto: la resultante tiene una medida igual a la resta de las medidas de las componentes, su dirección es paralela a las de las componentes (ubicada no entre ellas sino por fuera, del lado de la mayor), su sentido es el de la componente mayor. El punto de aplicación también se determina mediante la "relación de Stevin".
92
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
d) fuerzas no colineares ni concurrentes ni paralelas: existe siempre algún procedimiento aplicable al sistema dado que generalmente procurará trasladar las fuerzas componentes hasta asimilarlas parcial o totalmente a cualquiera de los casos vistos.
Efectos de la aplicación de fuerzas Las fuerzas son causas que solamente se ven a través de sus efectos. En Mecánica, una fuerza tiene como efecto la modificación del estado de movimiento del cuerpo sobre el que se la aplica. Y hemos llamado "aceleración" a esa modificación del movimiento (esto es, la variación de la velocidad y/o de la dirección de movimiento de un cuerpo). Es necesario aplicar una fuerza solamente cuando se busca modificar la magnitud o dirección de una velocidad. Si un cuerpo está quieto o moviéndose a velocidad constante sobre una trayectoria rectilínea, la resultante de las fuerzas que se ejercen sobre él es cero (resultante nula). Este principio es el que Newton elaboró y llamó "principio de inercia". Quizá sea el resultado de que el Universo intenta mantener su energía constante salvo que pueda disminuirla mediante algún fenómeno espontáneo (por ejemplo, la caída de un cuerpo, la formación de un compuesto químico más estable, etc.).
"Todo cuerpo continúa en su estado de reposo o de movimiento uniforme sobre una línea recta, a no ser que se le obligue a variar ese estado mediante fuerzas que actúen sobre él." (1686 Principios matemáticos de filosofía natural).
Cuando aplicamos una fuerza sobre un cuerpo, le creamos una aceleración directamente proporcional a la intensidad de la fuerza que aplicamos e inversamente proporcional a la masa de ese cuerpo.
Este principio también fue desarrollado en parte por Newton y lo conocemos como "principio de masa". a=F/m
"La ley de variación del movimiento es proporcional a la fuerza motora a que se le somete y se realiza en el sentido de la recta en que la fuerza actúa." (1686 - Principios matemáticos de filosofía natural). Siempre que un cuerpo ejerce una fuerza sobre otro (acción), recibe de él otra fuerza de igual intensidad pero de sentido contrario (reacción). Esta conclusión, fruto de la fina observación de Newton y de su espíritu científico de razonamiento, le permitió establecer este "principio de acción y reacción".
"A toda acción se opone siempre una reacción igual; o sea, las acciones mutuas de dos cuerpos uno sobre el otro se dirigen siempre hacia las partes contrarias." (1686 - Principios matemáticos de filosofía natural).
93
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Estos principios son el fundamento de la parte de la Física Mecánica que conocemos como "Estática".
Fuerzas de fricción Como en la vida práctica ninguna superficie es perfectamente lisa, las fuerzas que se aplican sobre un cuerpo para iniciar o mantener su movimiento no tiene una eficiencia del 100%. Esto se debe a la aparición de las fuerzas llamadas "de fricción" que se oponen a esos movimientos. Pueden ser producidas por rozamiento (en sólidos que se deslizan sobre sólidos), por rodadura (en sólidos que ruedan sobre sólidos), o por viscosidad (sólidos, líquidos o gases que atraviesan otros líquidos o gases). El sentido de las fuerzas de fricción es siempre opuesto al sentido del movimiento. Existen dos situaciones que afectan el valor de las fuerzas de rozamiento. Un caso se da cuando intentamos iniciar un movimiento y otro cuando, luego de iniciado, intentamos mantenerlo. a) rozamiento estático: como tuve el privilegio de que me fuera explicado por el eminente físico de la UNLP Dr. Rafael Grinfeld allá por 1963 y jamás se me olvidaron (ni su explicación ni él), cuando un cuerpo rugoso es apoyado sobre otro cuerpo rugoso, las irregularidades de uno "calzan" en las irregularidades del otro. Es más: si ambos cuerpos son metálicos, el peso del superior provoca que las eminencias de ambos lleguen a soldarse (microsoldaduras). Al intentar iniciar un deslizamiento, se hace necesario "descalzar" un cuerpo del otro produciendo la ruptura de sus puntos más salientes y, si existieran, también la ruptura de esas microsoldaduras. Esto hace que el rozamiento estático tenga un valor inicial mayor que el que se produce cuando ya el cuerpo está en movimiento. El cociente entre la fuerza de rozamiento estático y la fuerza normal o perpendicular (compresión de un cuerpo sobre el otro) se denomina "coeficiente de rozamiento estático". b) rozamiento dinámico: una vez iniciado el movimiento, disminuye un poco la fuerza de rozamiento, pues ya no existe esa adherencia inicial. El cociente entre la fuerza de rozamiento dinámico y la fuerza normal se hace menor, y se denomina "coeficiente de rozamiento dinámico".
Los lubricantes cumplen la función de disminuir ambas fuerzas de rozamiento, generalmente intercalando capas líquidas o pastosas que convierten el fenómeno de rozamiento en un fenómeno de viscosidad, con fuerzas de fricción significativamente menores y, por tanto, mayor eficiencia en el movimiento obtenido. Otras veces, cuando se trata de automóviles (cuerpos que se mueven "por sí mismos", tales como vehículos con motor o personas caminando), la eficiencia estará en relación con un mayor rozamiento (el de los neumáticos contra el pavimento o el de las suelas de los zapatos contra el piso, por ejemplo). Aquí se buscará aumentar el coeficiente de roce incrementando la rugosidad o utilizando materiales tales como el caucho que tengan alta adherencia a otros.
¿"En equilibrio" o "en reposo"? Tomémonos un par de minutos para diferenciar con mayor claridad estos conceptos. •
Equilibrio: implica aceleración = cero, lo que puede darse en un cuerpo en reposo o en otro que se mueva con velocidad uniforme sobre una trayectoria rectilínea.
•
Reposo: implica velocidad = 0, lo que solamente puede darse en un cuerpo quieto (al menos, sin desplazarse con respecto de otro que consideremos fijo).
94
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Un cuerpo puede estar en equilibrio sin estar en reposo: por ejemplo, si se está moviendo con velocidad constante sobre una trayectoria rectilínea. Un cuerpo puede estar en reposo sin estar en equilibrio: por ejemplo, un cuerpo lanzado hacia arriba que llega al punto máximo de su trayectoria y se detiene, pero que está siendo afectado por la fuerza de gravedad que lo hará iniciar su caída libre.
Centro de gravedad y Centro de masa Todo cuerpo tiene un volumen, es decir, ocupa un lugar en el espacio. Sin embargo, en la Física Mecánica básica jamás lo mencionamos. Los cuerpos, para nosotros, son siempre puntos que no tienen ni largo ni ancho ni alto, pero que tienen masa y tienen peso. Esto significa que los resultados teóricos que obtenemos no serán realmente los verdaderos en la práctica. Pero, para comenzar a estudiar los temas, es suficiente. (Los juguetes del 6 de enero existen, aunque los Reyes Magos...). •
Centro de gravedad: es el punto en el que puede considerarse concentrado todo el peso de un cuerpo.
•
Centro de masa: es el punto en el que puede considerarse concentrada toda la masa de un cuerpo.
Generalmente, la posición de ambos coincide y, en cuerpos homogéneos (de un material con peso específico y densidad uniformes en toda su extensión), también coincide con el centro geométrico del cuerpo.
Movimiento Todos los puntos del Universo que conocemos están en movimiento, es decir, cambian su posición. Cuando estás echado en tu sillón favorito y te recriminan por estar "quieto", puedes responder que estás girando alrededor del eje terrestre a razón de un giro completo diario, con la Tierra alrededor del Sol, con el Sistema Solar dentro de la Vía Láctea, con la Vía Láctea a través de las otras galaxias, ... Entonces, ¿qué está quieto y qué está en movimiento en forma absoluta? Nada. Todo movimiento es relativo. Un punto está en movimiento cuando cambia de posición con respecto a otro que arbitrariamente consideramos fijo. Y las distintas posiciones que ocupa a medida que pasa el tiempo configurarán su trayectoria. En este capítulo de la Física que se ha dado en llamar "Cinemática" veremos los movimientos sin tener en cuenta las fuerzas que los originan, y aquí solamente veremos algunos de ellos: los movimientos uniformes y los movimientos uniformemente variados, tanto rectilíneos como circulares.
Movimientos rectilíneos Obviamente, un movimiento es rectilíneo cuando la curvatura de su "recta de acción" es cero. Son pocos los movimientos verdaderamente rectilíneos, pero cuando la curvatura de la recta de acción no es significativa, podemos considerarlos así para facilitar el estudio.
95
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Vamos a utilizar solamente 2 fórmulas para intentar resolverlos todos.
El movimiento es rectilíneo uniforme cuando su velocidad no varía con el transcurso del tiempo.
Esto significa que: •
su velocidad es constante,
•
la resultante de las fuerzas ejercidas sobre él es cero y, por tanto,
•
no hay aceleración.
El movimiento es rectilíneo uniformemente acelerado cuando su velocidad aumenta regularmente con el transcurso del tiempo.
Esto significa que: •
su aceleración es positiva y constante,
•
es constante la intensidad de la resultante de las fuerzas ejercidas sobre el móvil y
•
esta fuerza resultante tiene el mismo sentido que el movimiento del cuerpo.
El movimiento es rectilíneo uniformemente retardado cuando su velocidad disminuye regularmente con el transcurso del tiempo.
Esto significa que: •
su aceleración es negativa y constante,
•
es constante la intensidad de la resultante de las fuerzas ejercidas sobre el móvil y
•
esta fuerza resultante tiene sentido opuesto al del movimiento del cuerpo (caso del frenado).
El movimiento es una caída libre cuando: •
es vertical,
•
la altura inicial es mayor que la final (que es cero),
•
la velocidad inicial es cero (se deja caer, no se empuja hacia abajo),
•
la velocidad final es positiva,
•
la aceleración es la de la gravedad considerada como positiva (a favor de la fuerza de atracción gravitatoria),
•
la fuerza actuante es la de la gravedad, es constante (aproximadamente igual a 9,8 m/s2 para movimientos cercanos a la superficie de la Tierra) y
•
tiene el mismo sentido que el movimiento del cuerpo.
96
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El movimiento es un tiro vertical cuando: •
obviamente, es vertical,
•
la altura inicial es cero y, por tanto, menor que la final,
•
la velocidad inicial es positiva (se lanza el cuerpo hacia arriba),
•
la velocidad final es cero,
•
la aceleración es la de la gravedad considerada como negativa (en contra de la fuerza de atracción gravitatoria),
•
la fuerza actuante es la de la gravedad, es constante y
•
tiene sentido opuesto al del movimiento del cuerpo.
Llamaremos: •
"vf " a la velocidad final del móvil
•
"v0" a su velocidad inicial (o a la única existente, en el caso del movimiento rectilíneo uniforme)
•
"a" a su aceleración ("g" cuando se trate de la aceleración de la gravedad = 9,8 m/s2)
•
"e" al espacio recorrido ("h" cuando se trate de una altura)
•
"t" al tiempo transcurrido
Entonces: vf = v0 + a t e = v0 t + 1/2 a t2
Electromagnetismo El electromagnetismo, estudia los fenómenos eléctricos y magnéticos que se unen en una sola teoría aportada por Faraday, que se resumen en cuatro ecuaciones vectoriales que relacionan campos eléctricos y magnéticos conocidas como las ecuaciones de Maxwell. Gracias a la invención de la pila de limón, se pudieron efectuar los estudios de los efectos magnéticos que se originan por el paso de corriente eléctrica a través de un conductor El Electromagnetismo, de esta manera es la parte de la Física que estudia los campos eléctricos y los campos magnéticos, sus interacciones con la materia y, en general, la electricidad y el magnetismo y las partículas subatómicas que generan flujo de carga eléctrica. El electromagnetismo, por ende se comprende que estudia conjuntamente los fenómenos físicos en los cuales intervienen cargas eléctricas en reposo y en movimiento, así como los relativos a los campos magnéticos y a sus efectos sobre diversas sustancias sólidas, líquidas y gaseosas.
Campos Eléctricos y Magnéticos Es conveniente entender el electromagnetismo en 2 terminos separados: El campo eléctrico y el campo magnético. Un campo eléctrico es producido por la presencia de cargas eléctricas, las cuales crean una fuerza, relacionadas por la ecuación (Siendo Q la carga eléctrica medida en
97
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
coulombs y E el campo eléctrico medido en Newtons/Coulombs). Esta fuerza eléctrica es la responsable de la electricidad estática y dirige el flujo de carga eléctrica en un area determinada (corriente eléctrica). Por otro lado, el campo magnético puede ser producido por el movimiento de cargas eléctricas, o corriente eléctrica, las cuales crean la fuerza magnética asociada con los imanes como la magnetita. El termino electromagnetismo proviene del hecho de que no podemos estudiar los campos eléctricos y magnéticos por separado. Un campo magnético variable produce un campo eléctrico (como ocurre en el fenomemo de inducción electromagnética, la cual es la base para el funcionamiento de generadores eléctricos, motores de inducción eléctrica y transformadores). Similarmente, un campo eléctrico variable genera un campo magnético. Debido a esta dependencia mutua de los campos eléctricos y magnéticos, se considera logico considerarlos como uno solo, el campo electromagnético. Esta unificación, la cual fue completada por James Clerk Maxwell, es uno de los triunfos para los físicos del siglo 19. Estos estudios trajeron consecuencias sumamente altas, siendo una de ellas la aclaración de la naturaleza de la luz. Como se ha ido descubriendo, lo que percibimos como “luz visible” es realmente una propagación oscilatoria en el campo electromagnético, es decir, una onda electromagnética. Diferentes frecuencias de oscilación dan a lugar a las diferentes formas de radiación electromagnética, desde las ondas de radio de frecuencias bajas, la luz visible en frecuencias intermedias, hasta los rayos gamma con las frecuencias bastante altas. Las implicaciones teóricas del electromagnetismo llevaron a Albert Einstein a la publicación de la Teoría de relatividad especial, en 1905
Desarrollo histórico de la teoría electromagnética Históricamente, el magnetismo y la electricidad habían sido tratados como fenómenos distintos y eran estudiados por ciencias diferentes. Sin embargo, los descubrimientos de Oersted y luego de Ampère, al observar que la aguja de una brújula tomaba una posición perpendicular al pasar corriente a través de un conductor próximo a ella. Así mismo los estudios de Faraday en el mismo campo, sugerían que la electricidad y el magnetismo eran manifestaciones de un mismo fenómeno. La idea anterior fue propuesta y materializada por el físico escocés James Clerk Maxwell (18311879), quien luego de estudiar los fenómenos eléctricos y magnéticos concluyó que son producto de una misma interacción, denominada interacción electromagnética, lo que le llevó a formular, alrededor del año 1850, las ecuaciones antes citadas, que llevan su nombre, en las que se describe el comportamiento del campo electromagnético. Estas ecuaciones dicen esencialmente que: • • • •
Existen portadores de cargas eléctricas, y las líneas del campo eléctrico parten desde las cargas positivas y terminan en las cargas negativas. No existen portadores de carga magnética; por lo tanto, el número de líneas del campo magnético que salen desde un volumen dado, debe ser igual al número de líneas que entran a dicho volumen. Un imán en movimiento, o, dicho de otra forma, un campo magnético variable, genera una corriente eléctrica llamada corriente inducida. Cargas eléctricas en movimiento generan campos magnéticos.
Acústica El sonido es la vibración de un medio elástico, bien sea gaseoso, liquido o sólido. Cuando nos referimos al sonido audible por el oído humano, estamos hablando de la sensación detectada por
98
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
nuestro oído, que producen las rápidas variaciones de presión en el aire por encima y por debajo de un valor estático. Este valor estático nos lo da la presión atmosférica (alrededor de 100.000 pascals) el cual tiene unas variaciones pequeñas y de forma muy lenta, tal y como se puede comprobar en un barómetro. ¿Cómo son de pequeñas y de rápidas las variaciones de presión que causan el sonido?. Cuando las rápidas variaciones de presión se centran entre 20 y 20.000 veces por segundo (igual a una frecuencia de 20 Hz a 20 kHz) el sonido es potencialmente audible aunque las variaciones de presión puedan ser a veces tan pequeñas como la millonésima parte de un pascal. Los sonidos muy fuertes son causados por grandes variaciones de presión, por ejemplo una variación de 1 pascal se oiría como un sonido muy fuerte, siempre y cuando la mayoría de la energía de dicho sonido estuviera contenida en las frecuencias medias (1kHz - 4 kHz) que es donde el iodo humano es más sensitivo. El sonido lo puede producir diferentes fuentes, desde una persona hablando hasta un altavoz, que es una membrana móvil que comprime el aire generado ondas sonoras.
2- ¿Qué es la Frecuencia Hz? Como hemos visto el sonido se produce como consecuencia de las compresiones y expansiones de un medio elástico, o sea, de las vibraciones que se generan en él. La frecuencia de una onda sonora se define como el número de pulsaciones (ciclos) que tiene por unidad de tiempo (segundo). La unidad correspondiente a un ciclo por segundo es el hertzio (Hz). Las frecuencias más bajas se corresponden con lo que habitualmente llamamos sonidos "graves”, son sonidos de vibraciones lentas. Las frecuencias mas altas se corresponden con lo que llamamos "agudos" y son vibraciones muy rápidas. El espectro de frecuencias audible varia según cada persona, edad etc. Sin embrago normalmente se acepta como los intervalos entre 20 Hz y 20 kHz.
3- ¿Qué es un Decibelio dB? El decibelio es una unidad logarítmica de medida utilizada en diferentes disciplinas de la ciencia. En todos los casos se usa para comparar una cantidad con otra llamada de referencia. Normalmente el valor tomado como referencia es siempre el menor valor de la cantidad. En algunos casos puede ser un valor promediado aproximado. En Acústica la mayoría de las veces el decibelio se utiliza para comparar la presión sonora, en el aire, con una presión de referencia. Este nivel de referencia tomado en Acústica, es una aproximación al nivel de presión mínimo que hace que nuestro iodo sea capaz de percibirlo. El nivel de referencia varía lógicamente según el tipo de medida que estemos realizando. No es el mismo nivel de referencia para la presión acústica, que para la intensidad acústica o para la potencia acústica. A continuación se dan los valores de referencia. - Nivel de Referencia para la Presión Sonora (en el aire) = 0.00002 = 2E-5 Pa (rms) - Nivel de Referencia para la Intensidad Sonora (en el aire) = 0.000000000001 = 1E-12 w/m^2 - Nivel de Referencia para la Potencia Sonora (en el aire) = 0.00000000001 = 1E-12 w Como su nombre indica el decibelio es la décima parte del Bel. El Bel es el logaritmo en base 10 de la relación de dos potencias o intensidades. No obstante esta unidad resulta demasiado grande por lo que se ha normalizado el uso de la décima parte del Bel, siendo el decibel o decibelio. La fórmula para su aplicación es la siguiente, partiendo que la intensidad acústica en el campo lejano es proporcional al cuadrado de la presión acústica, se define el nivel de presión sonora como:
99
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
- Lp = 10log (p^2/pr) = 20 log p/pr
Siendo Lp = Nivel de Presión sonora; p la presión medida; pr la presión de referencia (2E-5 Pa) Como es fácil ver el nivel de referencia siempre se corresponde con el nivel de 0 dB: - Lp = 20log (0.00002/0.00002) = 20log(1) = 20 * 0 = 0 dB Por la tanto en 0 dB tenemos el umbral de audición del iodo humano, se supone que no es posible oír por debajo de este nivel, o sea variaciones de nivel en la presión del aire inferiores a 0,00002 pascal. La razón por la que se utiliza el decibelio, es que si no, tendríamos que estar manejando números o muy pequeños o excesivamente grandes, llenos de ceros, con lo que la posibilidad de error seria muy grande al hacer cálculos. Además, también hay que tener en cuenta que el comportamiento del iodo humano esta mas cerca de una función logarítmica que de una lineal, ya que no percibe la misma variación de nivel en las diferentes escalas de nivel, ni en las diferentes bandas de frecuencias.
4- ¿Cómo se mide el Nivel Sonoro? Para medir el nivel sonoro disponemos de los Sonómetros. Estos aparatos nos permiten conocer el Nivel de Presión sonora o SPL (Sound Presure Level). Normalmente suelen ser sistemas digitales y presentan en una pantalla de cristal liquido los valores medidos. Estos siempre se dan como decibelios dB y en referencia al valor antes señalado de (2E-5 Pa). Con el sonómetro es posible además del hallar el valor rms de la presión, también ver los picos máximos y niveles mínimos de la medida. Como se verá en el capítulo de ponderaciones, los sonómetros normalmente no dan la medida en dB lineales si no que dan ya con la ponderación y son dBA/dBC etc.
Una función muy utilizada a la hora de medir niveles de presión acústica y que ofrecen los sonómetros es la medición en modo Leq. Normalmente se utiliza el Leq 1´ (leq a un minuto). El sonómetro mide las diferentes presiones que se generan durante un tiempo determinado (Leq X) siendo X = 1 minuto en nuestro caso, el valor que nos da al finalizar el minuto de medida es un valor en dB que equivaldría al de una señal de valor continuo durante todo el minuto y que utilizaría la misma energía que se ha medido durante el minuto. Hay que observar que en una medida de un minuto los valores varían y si se quiere determinar un valor medio de ruido hay que hacerlo con la función Leq, de otra forma se obtendrán valores erróneos puesto que podemos tener valores de pico durante un instante y no ser representativos del nivel de ruido normal que se esta intentando determinar.
5- ¿Qué es el dBA o la ponderación -A-? En el punto anterior hemos visto que el dB es un valor lineal, quiere decir que los valores medidos son los valores tomados como validos sin que sufran ninguna alteración. Si los valores de presión acústica los medimos de esta forma, linealmente, aun siendo cierta dicha medida, tendrá poco valor en cuanto a la percepción del odio humano. El oído no se comporta igual para el mismo nivel de presión en diferentes frecuencias. Por ejemplo tomemos un sonido lineal en toda la banda de 20 Hz a 20 kHz tenemos en todas las bandas un nivel de 30 dB, si nuestro iodo fuese lineal oiríamos los mismo o mejor con la misma intensidad auditiva las frecuencias más bajas, que las medias y que las agudas. Sin embargo, esto no es cierto el iodo humano tiene una menor sensibilidad en las frecuencias mas graves, y en las más agudas frente a las medias. Lo que más oímos, por tanto, son las frecuencias medias, y las que menos las más graves seguidas de las más agudas. Como vemos es necesario encontrar una forma de ajustar los niveles de dB que hemos medido con la percepción que el oído tiene de los mismos según cada frecuencia. Esta corrección se realiza ponderando los dB medidos mediante una tabla de ponderación ya especificada y que se
100
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
llama tabla "A". Los decibelios ya ponderados en "A" se representan como dBA y los no ponderados, llamados lineales, como dB.
Por ejemplo si en una frecuencia de 100 Hz hemos medido 80 dB, al ponderarlo pasaran a ser 60,9 dBA, esto quiere decir que un nivel de presión sonora de 80 dB en una frecuencia de 100 Hz es oída por nuestro sistema de audición como si realmente tuviese 60,9 dBA y no 80 dB.
6- ¿Cómo se suman los niveles de sonido? Hemos visto que el decibelio es una función logarítmica y, por tanto, cuando hablamos de dB de presión sonora no es posible sumarlos sin más. Por ejemplo 30 dB + 30 dB no es igual a 60 dB si no a 33 dB como vamos a ver a continuación.
Para poder sumar dos decibelios podemos emplear la siguiente ecuación:
Suma dB1 + dB2 = 10 log (10^(dB1/10) + 10^(dB2/10))
30 dB + 30 dB = 10 log(10^(30/10) + 10^(30/10) = 10 log(10^3 + 10^3) = 10 log (1000 + 1000) = 33 dB La suma de dos dB nunca puede ser mas de 3 dB mas que el mayor de los dos. Si la diferencia que hay entre los dos valores a sumar es mayor de 10 dB la suma no tiene valor practico y se toma el valor del mayor de los dos. Por ejemplo si sumamos 20 dB + 10 dB el resultado será igual a 20 dB (aproximado). Solamente son significativos para la suma los valores que tienen una diferencia menor a 10 dB.
7- ¿A partir de que niveles el sonido es perjudicial? Por encima de los 100 dBA es muy recomendable siempre que sea posible utilizar protectores para los oídos. Si la exposición es prolongada, por ejemplo en puestos de trabajos, se considera necesario el utilizar protectores en ambientes con niveles de 85 dBA, siempre y cuando la exposición sea prolongada. Los daños producidos en el oído por exposiciones a ruidos muy fuertes son acumulativos e irreversibles, por lo que se deben de extremar las precauciones. De la exposición prolongada a ruidos se observan trastornos nerviosos, cardiacos y mentales.
8- ¿Qué es la Presión Acústica y el Nivel de Presión Acústica? La presión sonora como hemos visto antes, es la presión que se genera en un punto determinado por una fuente sonora. El nivel de presión sonora SPL se mide en dB(A) SPL y determina el nivel de presión que realiza la onda sonora en relación a un nivel de referencia que es 2E-5 Pascal en el aire. Es el parámetro más fácil de medir, se puede medir con un sonómetro. Su valor depende del punto donde midamos, del local etc. Realmente no da mucha información sobre las características acústicas de la fuente, a no ser que se haga un análisis frecuencial de los nivel de presión, dado que el SPL siempre esta influenciado por la distancia a la fuente, el local etc.
9- ¿Qué es la Intensidad Acústica y el Nivel de Intensidad Acústica?
101
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Se puede definir como la cantidad de energía sonora transmitida en una dirección determinada por unidad de área. Con buen oído se puede citar dentro de un rango de entre 0.000000000001 w por metro cuadrado, hasta 1 w. Para realizar la medida de intensidades se utiliza actualmente analizadores de doble canal con posibilidad de espectro cruzado y una sonda que consiste en dos micrófonos separados a corta distancia. Permite determinar la cantidad de energía sonora que radia una fuente dentro de un ambiente ruidoso. No es posible medirlo con un sonómetro. El nivel de intensidad sonora se mide en w/m2.
10- ¿Que es la potencia Acústica y el Nivel de Potencia Acústica? La potencia acústica es la cantidad de energía radiada por una fuente determinada. El nivel de potencia Acústica es la cantidad de energía total radiada en un segundo y se mide en w. La referencia es 1pw = 1E-12 w. Para determinar la potencia acústica que radia una fuente se utiliza un sistema de medición alrededor de la fuente sonora a fin de poder determinar la energía total irradiada. La potencia acústica es un valor intrínseco de la fuente y no depende del local donde se halle. Es como una bombilla, puede tener 100 w y siempre tendrá 100 w la pongamos en nuestra habitación o la pongamos dentro de una nave enorme su potencia siempre será la misma. Con la potencia acústica ocurre lo mismo el valor no varia por estar en un local reverberante o en uno seco. Al contrario de la Presión Acústica que si que varia según varíe las características del local donde se halle la fuente, la distancia etc.
11- ¿Cual es la velocidad de propagación del sonido en el aire, agua etc.? La velocidad de propagación del sonido en el aire es de unos 334 m/s. y a 0º es de 331,6 m/s. La velocidad de propagación es proporcional a la raíz cuadrada de la temperatura absoluta y es alrededor de 12 m/s mayor a 20º. La velocidad es siempre independiente de la presión atmosférica. En el agua la velocidad de propagación es de 1500 m/s. Es posible obtener medidas de temperatura de los océanos midiendo la diferencia de velocidad sobre grandes distancias. Si necesitas más datos sobre la propagación del sonido en los materiales recurre al CRC Handbook of Chemistry & Physics.
12- ¿Qué es el Tiempo de Reverberación? El Tiempo de Reverberación RT, es el tiempo que tarda una señal, desde que esta deja de sonar, en atenuarse un nivel de 60 dB. Para realizar la medida se genera un ruido y se mide a partir de que este deja de sonar, entonces se determina el tiempo que tarda en atenuarse 60 dB. El Tiempo de Reverberación se mide de forma frecuencial, esto es, un local no tiene el mismo RT en 200 Hz que en 4 kHz. Ello es debido a que el RT viene determinado por el Volumen de la sala, y por los coeficientes de absorción de sus superficies, o si se prefiere por las superficies con un coeficiente de absorción determinado. Como los coeficientes de absorción de los diferentes materiales que componen cualquier local no son iguales para todas las frecuencias, las reflexiones generadas en el interior del local serán diferentes para cada frecuencia y por lo tanto el RT del local es diferente según las frecuencias. Para calcular la RT de un local sin realizar mediciones se puede utilizar la formula de Sabine:
102
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
- RT60 = 0,163 * (V/A)
- V = Volumen de la sala en m3 y A = Superficie de Absorción en m2
Como norma cuanto mayor sea el local mayor es el RT. Si los materiales que lo componen internamente son poco absorbentes el RT también aumentara. El valor de RT es muy importante si se quiere conseguir buenos niveles de inteligibilidad dentro de los locales.
13- ¿Qué es el Coeficiente de Absorción de un material? El coeficiente de absorción de un material es la relación entre la energía absorbida por el material y la energía reflejada por el mismo. Dada esta formulación su valor siempre esta comprendido entre 0 y 1. El máximo coeficiente de absorción esta determinado por un valor de 1 donde toda la energía que incide en el material es absorbida por el mismo, y el mínimo es 0 donde toda la energía es reflejada. El coeficiente de absorción varia con la frecuencia y, por tanto, los fabricantes de materiales acústicos dan los coeficientes de absorción por lo menos en resolución de una octava. Sabiendo los materiales de una sala y sabiendo sus coeficientes de absorción podemos saber cómo sonara esa sala en cada frecuencia y podremos también saber, mediante la fórmula de Sabine, Eyring etc., el tiempo de reverberación también por frecuencias.
Tablas de Ponderación A, C y U (dB).
Nominal ..............Exacta
Frecuencia.......... Frecuencia .........A-weight ..........C-weight ........U-weight
10 ...........................10.00 ...............-70.4 ...............-14.3............... 0.0 12.5 ........................12.59 ...............-63.4 ...............-11.2 ...............0.0 16 ...........................15.85 ...............-56.7 ................- 8.5 ...............0.0 20 ...........................19.95 ...............-50.5 ................- 6.2 ...............0.0 25 ...........................25.12 ...............-44.7 ................- 4.4 ...............0.0 31.5 ........................31.62 ...............-39.4 ................- 3.0 ...............0.0 40 ...........................39.81 ...............-34.6 ................- 2.0 ...............0.0 50 ...........................50.12 ...............-30.2 ................- 1.3 ...............0.0 63 ...........................63.10 ...............-26.2 ................- 0.8 ...............0.0 80 ...........................79.43 ...............-22.5 ................- 0.5 ...............0.0 100 .......................100.00 ...............-19.1 ................- 0.3 ...............0.0 125 .......................125.9 .................-16.1................ - 0.2 ...............0.0
103
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
160 .......................158.5 .................-13.4 ................- 0.1 ...............0.0
200 .......................199.5 .................-10.9 ..................0.0 ................0.0 250 .......................251.2 ..................- 8.6 ..................0.0 ................0.0 315 .......................316.2.................. - 6.6 ..................0.0 ................0.0 400 .......................398.1 ..................- 4.8 ..................0.0 ................0.0 500 .......................501.2 ..................- 3.2 ..................0.0 ................0.0 630 .......................631.0 ..................- 1.9 ..................0.0 ................0.0 800 .......................794.3 ..................- 0.8 ..................0.0 ................0.0 1000 ...................1000.0 .....................0.0 ..................0.0 ................0.0 1250 ....................1259 ....................+ 0.6.................. 0.0 ................0.0 1600 ....................1585 ....................+ 1.0 ................- 0.1................ 0.0 2000 ....................1995 ....................+ 1.2 ................- 0.2 ................0.0 2500 ....................2512 ....................+ 1.3 ................- 0.3 ................0.0 3150 ....................3162 ....................+ 1.2 ................- 0.5 ................0.0 4000 ....................3981 ....................+ 1.0 ................- 0.8 ................0.0 5000 ....................5012 ....................+ 0.5 ................- 1.3 ................0.0 6300 ....................6310 .....................- 0.1 ................- 2.0 ................0.0 8000 ....................7943 .....................- 1.1 ...............- 3.0 .................0.0 10000 ................10000 .....................- 2.5 ...............- 4.4 .................0.0 12500 ................12590 .....................- 4.3 ...............- 6.2 ...............- 2.8 16000 ................15850 .....................- 6.6 ...............- 8.5 ..............-13.0 20000 ................19950 .....................- 9.3 ..............-11.2 ..............-25.3 25000 ................25120 ....................-37.6 31500 ................31620 ....................-49.7 40000 ................39810 ....................-61.8
14- ¿Qué es Eco, Reverberación y Resonancia? Cuando se genera un sonido en el interior de un local las superficies que componen el mismo ocasionan una serie de diferentes efectos dependiendo de las características de dichas superficies. Esto ocurre porque las ondas sonoras inciden en las diferentes superficies y estas las reflejan de diferente forma según su coeficiente de reflexión acústica. Como es lógico, primero siempre se percibe el sonido directo, esto es, el sonido que nos llega a nuestro oído sin que aún se halla reflejado en ninguna superficie. Una vez recibido el sonido directo, llegará a nuestros oídos, con un retraso de tiempo con respecto al sonido directo, el sonido reflejado por las superficies del local. Tanto el retraso como el nivel sonoro del sonido reflejado dependen de las características físicas del local y sus superficies. Si el retraso entre el sonido directo y el reflejado es mayor de 1/10 de segundo, nuestro sistema de audición será capaz de separar las dos señales y percibirlas como tales, primero una y después la
104
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
otra, esto es lo que se entiende por eco. Por ejemplo: supongamos que estamos dentro de un local de grandes dimensiones y una persona que esta separada de nosotros a cierta distancia nos dice "HOLA"; primero llegara a nuestros oídos el "HOLA" del sonido directo, y en el caso de un Eco este nos llegara como mínimo 1/10 segundo después, por lo tanto oiremos "HOLA. (1/10 segundo mínimo)...HOLA", y lo interpretaremos efectivamente como dos mensajes diferentes separados por un intervalo de tiempo determinado. Sin embargo, nuestro interlocutor únicamente ha articulado un "HOLA". Cuando en la misma situación que en el caso anterior, el sonido reflejado nos llega con un tiempo inferior a 1/10 de segundo, nuestro sistema de audición no es capaz de separar ambas señales y las toma como una misma pero con una duración superior de esta. Normalmente esto se entiende como reverberación. La reverberación de un local se mide según su tiempo de reverberación (rt) en segundos y varia según la frecuencia de análisis que se utilice. Esto es debido a que los diferentes materiales que componen las superficies del local no se comportan por igual en todo el espectro sonoro, y, por tanto, los coeficientes de absorción de cada superficie de un mismo material varia según la frecuencia. Conociendo el tiempo de reverberación de un local podemos saber como se comportara el mismo en diferentes aplicaciones. Cuando el tiempo de reverberación alcanza valores muy altos con respecto al sonido directo, puede ocurrir un enmascaramiento de este y se puede perder la capacidad de entender la información contenida en el mensaje que se percibe. La resonancia se ocasiona cuando un cuerpo entra en vibración por simpatía con una onda sonora que incide sobre el y coincide su frecuencia con la frecuencia de oscilación del cuerpo o esta es múltiplo entero de la frecuencia de la onda que le incide.
15- ¿Qué es la altura (tono) de un sonido? Como ya sabemos la frecuencia es una entidad física y, por tanto, puede ser medida de forma objetiva por diferentes medios. Por contra la altura o tono de un sonido es un fenómeno totalmente subjetivo y, por tanto, no es posible medirlo de forma objetiva. Normalmente cuando se aumenta la frecuencia de un sonido, su altura también sube, sin embargo, esto no se da de forma lineal, o sea, no se corresponde la subida del valor de la frecuencia con la percepción de la subida de tono. La valoración subjetiva del tono se ve condicionada no sólo por el aumento de la frecuencia sino también por la intensidad, y por el valor de dicha frecuencia. Para frecuencias inferiores a 1 kHz (incluida esta), si se aumenta la intensidad el tono disminuye, entre 1 kHz y 5 kHz el tono es prácticamente independiente de la intensidad que tenga, por encima de 5 kHz el tono aumenta si aumenta la intensidad. La unidad de altura es el "Mel". (en ocasiones se utiliza el "Bark" equivalente a 100"Mels").
16- ¿Qué es el timbre? ¿Por que podemos distinguir el sonido de un piano al de una trompeta, o el de un violín a una viola, o la voz de nuestro hermano con la de un amigo?. El timbre hace posible que cada instrumento pueda tener un color determinado y particular que lo distingue de otros aun cuando su espectro sonoro pueda parecer similar. El timbre esta formado por un conjunto de frecuencias de alturas sonoras fijas (ámbito de formantes). De forma sencilla se puede decir que el timbre lo forma la frecuencia fundamental del instrumento, más su composición armónica. La frecuencia fundamental de dos instrumentos diferentes puede ser la misma, pero su composición armónica es diferente y es lo que hace que los podamos distinguir. Por ejemplo: si
105
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
generamos una frecuencia de 440 Hz con un piano y con una guitarra, aun cuando ambos están afinados en la misma frecuencia y generando la misma, cada uno suena diferente. Esto es debido a que cada instrumento genera una serie de armónicos según la construcción del propio instrumento, en el piano el arpa metálico y la caja generan una serie de armónicos con una serie de niveles sonoros que le dan su sonido característico. En la guitarra la caja, las cuerdas etc. le confieren a la misma frecuencia un sonido diferente. La forma de ejecutar el instrumento y la intensidad hacen también que el timbre varíe, al hacer variar su composición armónica.
17- ¿Qué es el efecto Doppler? El efecto Doppler se origina cuando hay un movimiento relativo entre la fuente sonora y el oyente cuando cualquiera de los dos se mueven con respecto al medio en el que las ondas se propagan. El resultado es la aparente variación de la altura del sonido. Existe una variación en la frecuencia que percibimos con la frecuencia que la fuente origina. Para entenderlo mejor supongamos que estamos paradas en el andén de una estación, a lo lejos un tren viene a gran velocidad con la sirena accionada, mientras el tren este lejos de nosotros oiremos el silbido de la sirena como una frecuencia determinada, cuando el tren pase delante nuestro y siga su camino, el sonido de la sirena cambia con respecto al estábamos oyendo y con respecto al que vamos a oír una vez que el tren nos rebasa y sigue su camino. La frecuencia que aparente se puede determinar según las siguientes fórmulas:
Fuente móvil fx = (c/(c-u))fs
Receptor en movimiento: fx = ((c-v)/c)fs Ambos en movimiento:
fx = ((c-v)/(c-u))fs fx = Frecuencia aparente c = Velocidad del sonido v = Velocidad del observador u = Velocidad de la fuente fs = Frecuencia de la fuente
18- ¿Qué es una octava, media octava y tercio de octava? El termino de octava se toma de una escala musical, se considera el intervalo entre dos sonidos que tienen una relación de frecuencias igual a 2 y que corresponde a ocho notas de dicha escala musical. Por ejemplo: si comenzamos con una nota como DO, la octava completa será: DO-RE-MIFA-SOL-LA-SI-DO. Si el primer DO estaba afinado en 440 Hz el segundo estará en 880 Hz, ya que hemos indicado que en la octava hay una relación de frecuencias igual a 2.
106
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
En el caso de un ecualizador gráfico de una octava, las frecuencias centrales de los filtros podían ser las siguientes: 16 Hz - 31,5 Hz - 63 Hz - 125 Hz - 250 Hz - 500 Hz - 1kHz - 2 kHz - 4 kHz - 8 kHz - 16 kHz. En algunos casos la relación de 2:1 de la octava no se cumple exactamente.
Cuando se necesitan filtros de mayor precisión, de un ancho de banda mas estrecho, se puede dividir la octava en valores más pequeños, por ejemplo: la media octava divide cada octava en dos, y, por tanto, tendremos el doble de puntos que en una octava, siguiendo con el ejemplo empleado en una octava tendríamos: 16 Hz - 22,4 Hz - 31,5 Hz - 45 Hz - 63 Hz - 90 Hz - 125 Hz - 180 Hz 250 Hz - 355 Hz - 500 Hz - 710 Hz - 1kHz - 1,4 kHz - 2 kHz - 2,8 kHz - 4 kHz - 5,6 kHz - 8 kHz 11,2 kHz - 16 kHz.
En el caso de un tercio de octava, cada intervalo de la octava se divide en tres partes con lo que tendremos tres veces mas de filtros para poder ajustar, quedando los cortes como siguen: 16 Hz 20 Hz - 25 Hz - 31,5 Hz - 40 Hz - 50 Hz - 63 Hz - 80 Hz - 100 Hz - 125 Hz - 160 Hz - 200 Hz - 250 Hz - 315 Hz - 400 Hz - 500 Hz - 630 Hz - 800 Hz - 1 kHz - 1,25 kHz - 1,6 kHz - 2 kHz - 2,5 kHz 3,15 kHz - 4 kHz - 5 kHz - 6,3 kHz - 8 kHz - 10 kHz - 12,5 kHz - 16 kHz
19- ¿Qué es un filtro de ancho de banda constante? Un filtro de ancho de banda constante consiste básicamente en un filtro de banda estrecha sintonizable y constante. Esto nos permite seleccionar la frecuencia central que deseamos y también el ancho de banda del filtro. El ancho de banda del filtro viene dado por el siguiente valor:
w = f2 - f1 Siendo w = ancho de banda del filtro, f2 = frecuencia superior y f1 = frecuencia inferior. Y la frecuencia central del filtro se obtiene normalmente de: fc = Raíz Cuadrada(f1*f2)
La frecuencia central se puede ajustar a cualquier punto del espectro y mantienen siempre el mismo ancho de banda. Por ejemplo: supongamos que tenemos un filtro de ancho de banda constante con un ancho de banda de 20 Hz, si lo colocamos de forma que la frecuencia inferior sea 100 Hz (f1) la superior será igual a 120 Hz y su frecuencia central será 109,54 Hz aproximadamente. Si ahora nos desplazamos a un margen de frecuencias superior, f1 = 4.000 Hz, f2 será igual a 4020 Hz y la frecuencia central será 4010 Hz. Como se ve el ancho de banda siempre es constante y no varia al variar el punto de trabajo del filtro.
20- ¿Qué es un filtro de ancho de banda proporcional? Los filtros de ancho de banda proporcional son filtros que cumplen la remisa de f2/f1 =constante, o sea, que si dividimos la frecuencia superior por la inferior siempre nos tiene que dar un valor que sea constante, por lo que el ancho de banda es proporcional a la frecuencia central. En el caso de un filtro de octava y de tercio de octava la relación de proporción es :
Octava f2/f1 = 2 Tercio de Octava f2/f1 = 2^(1/3)
107
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Como es fácil deducir el ancho de banda de este tipo de filtros varía al variar la frecuencia, cuanto más subimos mayor es el ancho de banda, siempre manteniendo la proporción expresada según el filtro sea de octava, tercio etc.
Cada vez que subimos una octava doblamos el ancho de banda del filtro. Por ejemplo supongamos que estamos trabajando con un filtro de 1/3 de octava y nos situamos en la frecuencia de 100 Hz tenemos que la frecuencia inmediatamente inferior es 80 Hz y la superior 125, podemos obtener la relación de proporcionalidad del filtro según:
f2/f1 = constante
125/80 = 1,56
Podemos ver que tenemos un valor de 1,56 y que corresponde a un ancho de banda de f2-f1 = 125-80 = 45 Hz.
Si ahora con el mismo valor de la proporción (1,56) colocamos el filtro en la frecuencia central de 200 Hz en lugar de los 100 Hz de antes, veremos que la proporción se mantiene pero el ancho de banda aumenta justo al doble:
f2/f1 = 250/160 = 1,56
f2-f1 = 250 - 160 = 90 Hz
Cada vez que subamos la frecuencia central aumentara el ancho de banda del filtro en la proporción expresada (1 octava =2 y 1/3 octava = 2^(1/3)). Cada vez que doblamos la frecuencia se dobla el ancho de banda del filtro. Por lo tanto este tipo de filtros resultan más precisos en las frecuencias bajas que en las altas, ya que en frecuencias como 8 kHz el ancho de banda aumenta hasta 3.700 Hz mientras que como hemos visto para el mismo filtro en la frecuencia de 100 Hz tiene un ancho de banda de 45 Hz. Los filtros proporcionales con resoluciones de octava, tercio etc. son los mas utilizados tanto en analizadores como en ecualizadores para fines musicales y acústicos.
21- ¿Qué es el ruido rosa? El ruido rosa es un ruido cuyo nivel sonoro esta caracterizado por un descenso de tres decibelios por octava. Cuando el ruido rosa se visualiza en un analizador con filtros de octava, el ruido se ve como si todas las bandas de octava tuviesen el mismo nivel sonoro, lo cual es cierto, pero el ruido rosa no tiene el mismo nivel en todas las frecuencias. Esto ocurre por que como hemos visto en el capitulo anterior los filtros de octava, tercio etc., son filtros proporcionales y, por tanto, cada vez que subimos una octava, doblamos el ancho de banda y por ese motivo el ruido rosa decrece 3 dB por octava, justo la proporción en que aumenta el
108
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
ancho de banda, el doble. De esta forma visualizamos el ruido rosa como un ruido de nivel constante en todas las bandas de octava. Se utiliza para analizar el comportamiento de salas, altavoces, equipos de sonido etc. Es una señal conocida, mismo nivel en todas las bandas (sonido "plano") , y si lo amplificamos con un altavoz dentro de una sala podemos conocer datos sobre el comportamiento acústico del altavoz, la sala etc. Normalmente se genera entre 20 Hz y 20 kHz. Su sonido es muy parecido al que podemos oír cuando se sintoniza entre dos emisoras de FM, en el espacio que se recibe únicamente el ruido, es como un soplido.
22- ¿Qué es el ruido blanco? El ruido blanco es un ruido cuyo nivel es constante en todas las frecuencias. Si lo visualizamos con un analizador con filtros de octava, veremos que el espectro mostrado no es lineal como hemos dicho que es el ruido blanco, si no que aumenta 3 dB por octava. Esto se debe al mismo fenómeno que con el ruido rosa, al doblar la octava se dobla el ancho de banda y si se tenemos el mismo nivel sonoro en todas las frecuencias, el nivel sonoro por octava se doblara y aumentara 3 dB con respecto al anterior.
23- ¿Qué es la disminución espacial del nivel sonoro? Si tenemos una fuente sonora determinada, y estamos situados a una distancia de ella, al alejarnos o acercarnos el nivel de presión sonora varia según las características de la fuente, el lugar donde se encuentre y la distancia entre otros factores. Podemos calcular el nivel de presión acústica dentro de un local en cualquier punto con la siguiente formula:
Lp = Lw + 10 log ((Q/4*Pi*r*2)+(4/R)) Lp = Nivel de presión sonora. Lw = Nivel de potencia de la fuente sonora en dB. Q = Directividad de la fuente sonora. r = distancia entre la fuente y el punto de medida en metros. R = constante acústica del local (m2). En espacios al aire libre se considera que cada vez que se dobla la distancia entre la fuente sonora y el oyente, se disminuye el nivel sonoro en 6 dB. Por ejemplo supongamos que estamos escuchando un altavoz a una distancia de 10 metros, si utilizamos un sonómetro y medimos el nivel de presión acústica obtenemos un valor supuesto de 80 dB, si ahora nos distanciamos 10 metros mas, o sea, doblamos la distancia del punto inicial, obtendremos una lectura de 74 dB, 6 dB menos que en el primer punto, si por ultimo nos alejamos 20 metros de este ultimo punto, doblando así su distancia, estamos a 40 metros de la fuente, obtendremos también un descenso de 6 dB, tendremos por tanto 68 dB.
Óptica La óptica es la rama de la física que estudia el comportamiento de la luz y, más generalmente, de las ondas electromagnéticas. Según el modelo utilizado para la luz, se distingue entre las siguientes ramas, por orden creciente de precisión (cada rama utiliza un modelo simplificado del empleado por la siguiente):
109
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
La óptica geométrica: Trata a la luz como un conjunto de rayos que cumplen el principio de Fermat. Se utiliza en el estudio de la transmisión de la luz por medios homogéneos (lentes, espejos), la reflexión y la refracción. La óptica ondulatoria: Considera a la luz como una onda plana, teniendo en cuenta su frecuencia y longitud de onda. Se utiliza para el estudio de difracción e interferencia. La óptica electromagnética: Considera a la luz como una onda electromagnética, explicando así la reflectancia y transmitancia, y los fenómenos de polarización y anisotropía. La óptica cuántica u óptica física: Estudio cuántico de la interacción entre las ondas electromagnéticas y la materia, en el que la dualidad onda-corpúsculo desempeña un papel crucial. Fenómenos ópticos 1. difracción 2. refracción 3. reflexión 4. arco iris 5. ilusión óptica 6. Aberración longitudinal 7. Aumento óptico En física, la difracción es un fenómeno característico de las ondas que consiste en la dispersión y curvado aparente de las ondas cuando encuentran un obstáculo. La difracción ocurre en todo tipo de ondas, desde ondas sonoras, ondas en la superficie de un fluído y ondas electromagnéticas como la luz y las ondas de radio. También sucede cuando un grupo de ondas de tamaño finito se propaga; por ejemplo, por culpa de la difracción, un haz angosto de ondas de luz de un láser deben finalmente diverger en un rayo más amplio a una distancia suficiente del emisor. Comparación entre los patrones de difracción e interferencia producidos por una doble rendija (arriba) y cinco rendijas (abajo).El fenómeno de la difracción es un fenómeno de tipo interferencial y como tal requiere la superposición de ondas coherentes entre sí. Los efectos de la difracción disminuyen hasta hacerse indetectables a medida que el tamaño del objeto aumenta comparado con la longitud de onda. En el espectro electromagnético los rayos X tienen longitudes de onda similares a las distancias interatómicas en la material. Es posible por lo tanto utilizar la difracción de rayos X como un método para explorar la naturaleza de la estructura cristalina. Esta técnica permitió descubrir la estructura de doble hélice del ADN en 1953. La difracción producida por una estructura cristalina verifica la ley de Bragg. Debido a la dualidad onda-corpúsculo característica de la mecánica cuántica es posible observar la difracción de partículas como neutrones o electrones. En los inicios de la mecánica cuántica este fue uno de los argumentos más claros a favor de la descripción ondulatoria que realiza la mecánica cuántica de las partículas subatómicas. La refracción (del latín fractum, "quebrado") es el cambio de dirección que experimenta una onda electromagnética debido al cambio de velocidad cuando pasa de un medio con un índice de refracción dado a un medio con otro índice de refracción distinto. Un ejemplo de este fenómeno se ve cuando se sumerge un lápiz en un vaso con agua: el lápiz parece quebrado. También ocurre cuando la luz pasa por una capa de aire sobre una superficie caliente, produciendo un espejismo. Refracción de la luz
110
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Refracción de la luz. Se produce cuando la luz pasa de un medio de propagación a otro con una densidad óptica diferente, sufriendo un cambio de velocidad y un cambio de dirección si no incide perpendicularmente en la superficie. Esta desviación en la dirección de propagación se explica por medio de la ley de Snell. Esta ley, así como la refracción en medios no homogéneos, son consecuencia del principio de Fermat, que indica que la luz se propaga entre dos puntos siguiendo la trayectoria de recorrido óptico de menor tiempo. Por otro lado, la velocidad de propagación de la luz en un medio distinto del vacío está en relación con la longitud de la onda y, cuando un haz de luz blanca pasa de un medio a otro, cada color sufre una ligera desviación. Este fenómeno es conocido como dispersión de la luz. Por ejemplo, al llegar a un medio más denso, las ondas más cortas pierden velocidad sobre las largas (ej: cuando la luz blanca atraviesa un prisma). Las longitudes de onda corta son hasta 4 veces más dispersadas que las largas lo cual explica que el cielo se vea azulado, ya que para esa gama de colores el índice de refracción es mayor y se dispersa más. Refracción del sonido Es la desviación que sufren las ondas cuando el sonido pasa de un medio a otro diferente. A diferencia de lo que ocurre en la reflexión, en la refracción, el ángulo de refracción ya no es igual al de incidencia. El término reflexión puede tener distintos significados: En Óptica se refiere al fenómeno por el cual un rayo de luz que incide sobre una superficie es reflejado. El ángulo con la normal a esa superficie que forman los rayos incidente y reflejado son iguales. Se produce también un fenómeno de absorción diferencial en la superficie, por el cual la energía y espectro del rayo reflejado no coinciden con la del incidente. Para una explicación más detallada véase radiación electromagnética. Hace más de tres siglos, Isaac Newton logró demostrar con ayuda de un prisma que la luz blanca del Sol contiene colores a partir del rojo, pasando por el amarillo, por el verde y por el azul, hasta llegar al violeta. Esta separación de la luz en los colores que la conforman recibe el nombre de descomposición de la luz blanca. El experimento de Newton es relativamente fácil de reproducir, pues no es necesario contar con instrumental científico especial para llevarlo a cabo. Incluso hoy en día resulta ser uno de los más hermosos e instructivos para los incipientes estudiantes de óptica en educación básica y medio superior. Pero muchos siglos antes de que naciera Newton la naturaleza ya había descompuesto la luz del Sol una y otra vez ante los ojos de nuestros antepasados. Algunas veces, luego de una llovizna; otras, después de una tormenta. Lo cierto es que el arco iris fue durante mucho tiempo un fenómeno tan asombroso como sobrecogedor. Tomado en ocasiones como portador de augurios, en otras como inspiración de leyendas, y siempre como una obra de arte, nunca ha dejado de parecer maravilloso al ser humano. La Teoría Elemental del arco iris fue, sin embargo, anterior a Newton. Desarrollada primero por Antonius de Demini en 1611, fue retomada y refinada luego por René Descartes. Posteriormente, la Teoría Completa del arco iris fue propuesta en forma inicial por Thomas Young y, más tarde, elaborada en detalle por Potter y Airy. Cuando la luz solar incide sobre las gotas de lluvia, éstas se encargan de dispersarla en todas direcciones, pero en algunas mucho más que en otras. Los rayos del Sol involucrados con la formación del arco iris salen de las gotas de lluvia con un ángulo de aproximadamente 138 grados respecto de la dirección que llevaban antes de entrar en ellas. Este es el "ángulo del arco iris", descubierto por René Descartes en el año de 1637. Si la luz saliera a 180 grados, entonces regresaría por donde vino. Como el ángulo de salida es de sólo 138 grados, la luz no se refleja exactamente hacia su origen. Esto hace posible que el arco iris sea visible para nosotros, que no solemos encontramos exactamente entre el Sol y la lluvia. De manera que siempre, si nos colocamos de frente a un arco iris, el Sol estará detrás de nosotros.
111
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Para ser más precisos, es la luz amarilla la que es dispersada a 138 grados de su trayectoria original. La luz de otros colores es dispersada en ángulos algo distintos. La luz roja del arco iris se dispersa en una dirección ligeramente menor que 138 grados, mientras que la luz violeta sale de las gotas de lluvia en un ángulo un poco mayor. Un rayo de luz solar, de los que "hacen" un arco iris, cambia su dirección tres veces mientras se mueve a través de una gota de lluvia: Primero entra en la gota, lo cual ocasiona que se refracte ligeramente. Entonces se mueve hacia el extremo opuesto de la gota, y se refleja en la cara interna de la misma. Finalmente, vuelve a refractarse cuando sale de la gota de lluvia en forma de luz dispersa.La descomposición en colores es posible porque el índice de refracción de la gota de agua es ligeramente distinto para cada longitud de onda, para cada color del arco iris.
La luz solar emerge de muchas gotas de lluvia a un tiempo. El efecto combinado es un mosaico de pequeños destellos de luz dispersados por muchas gotas de lluvia, distribuido como un arco en el cielo. Los diversos tamaños y formas de las gotas afectan la intensidad de los colores del arco iris. Gotas pequeñas hacen un arco iris pálido y de colores con tonalidades pastel; gotas grandes producen colores muy vivos. Además, las gotas grandes son aplastadas por la resistencia del aire mientras caen. Esta distorsión ocasiona que el "final" del arco iris tenga colores más intensos que la cresta. Quizás sea ésta la causa de la leyenda que sugiere la existencia de una olla que contiene oro resplandeciente en el final del arco iris.
A veces, es posible ver también lo que se conoce como arco iris secundario, el cual es más débil y presenta los colores invertidos. El arco iris primario, que hemos dado en llamar simplemente "arco iris", es siempre un arco interior del arco iris secundario. Este segundo arco existe porque ciertos rayos de luz se reflejan una vez más dentro de la gota y se dispersan luego en un ángulo de aproximadamente 130 grados.
Es interesante señalar que ninguna luz emerge en la región entre los arco iris primario y secundario. Esto coincide con algunas observaciones, que señalan que la región entre los dos arcos es muy oscura, mientras que en la parte exterior del arco secundario y en la parte interior del arco primario es visible una considerable cantidad de luz. Esta zona oscura es conocida como "Banda de Alejandro".
Teóricamente, tres, cuatro y cinco reflexiones de los rayos solares dentro de las gotas de lluvia producirán otros tantos arco iris. Los arcos tercero y cuarto están localizados entre el observador y el Sol pero, debido a que la luz solar directa es muy brillante comparada con los arcos débiles, probablemente el fenómeno nunca será observado. Sin embargo, el quinto arco iris se produce en la misma parte del cielo que los arcos primario y secundario, y debería poder verse excepto por lo tenue de su luz. Es posible, en un experimento de laboratorio, demostrar que se pueden conseguir hasta 13 arcos iris visibles, aunque, lógicamente su luminosidad se reduce considerablemente.
En algunas ocasiones, cuando los arco iris primario y secundario son muy brillantes, se puede observar un tercero dentro del primario y un cuarto fuera del secundario. A estos arcos se les llama arcos supernumerarios y se deben a efectos especiales de interferencia luminosa.
Alguien que ve un arco iris, en realidad no está viendo cosa alguna que esté en un sitio fijo. El arco iris es sólo un fantasma, una imagen. Se cuenta que un pasajero de un pequeño avión le pidió una vez al piloto de la aeronave que cruzara el centro del arco iris. El arco iris nunca fue creciendo conforme el avión volaba hacia él. Luego de un rato, el arco iris se desvaneció, pues el avión voló
112
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
fuera del área donde la lluvia lo producía. Así, este inocente pasajero se quedó con las ganas de volar a través del arco iris.
Cuando alguien mira un arco iris, lo que está viendo en realidad es luz dispersada por ciertas gotas de lluvia. Otra persona que se encuentre al lado del primer observador verá luz dispersada por otras gotas. De manera que, aunque suene gracioso, puede decirse que cada quien ve su propio arco iris, distinto (hablando en un sentido estricto) del que ven todos los demás.
Si las condiciones atmosféricas y el sitio de observación son perfectos, entonces la lluvia y el Sol trabajan juntos para crear un anillo de luz completo, denominado arco iris circular. Desgraciadamente, no es posible ver un arco iris circular desde la superficie de la Tierra, debido a que el horizonte limita considerablemente el campo de visión. Así, aunque las condiciones atmosféricas sean las que se requieren para un arco iris circular, no es posible admirar este bello fenómeno porque la parte de abajo del círculo es bloqueada por el horizonte. De tal suerte que siempre vemos los arco iris como arcos, mas no como círculos en el cielo.
Respecto de las condiciones para ver un arco iris se reducen a que el observador tiene que estar localizado entre el sol y una lluvia de gotas esféricas (una lluvia uniforme). Es posible que el observador crea que la lluvia no es uniforme donde él se encuentra, pero sí debe serlo desde donde localizaría el arco iris. ¿Y cuando son las gotas esféricas? Las gotas son esféricas cuando caen a una velocidad uniforme, constante. Esto es posible en condiciones de aceleración gravitatoria contando con las fuerzas viscosas de oposición del aire. Cuando se cumple que la velocidad de las gotas es uniforme, la gota adquiere un volumen máximo con la mínima superficie (esfera). Sólo en estas condiciones es posible la dispersión luminosa dentro de la gota y por tanto el arco iris, aunque ligeras variaciones de la esfera puedan dar diversas variaciones en un arco iris. Por lo tanto, la lluvia no debe ser torrencial, ni estar afectada por el viento. Es por ello que no siempre se contempla el arco iris cuando hay lluvia y sol.
Es importante notar la altura del Sol cuando uno observa un arco iris, pues es algo que ayuda a determinar qué tanto alcanza uno a ver de él: cuanto más bajo se encuentre el Sol, más alta será la cresta del arco iris y viceversa. Alguien que pueda elevarse un poco sobre la superficie de la Tierra, se daría cuenta de que ciertos arco iris continúan por debajo del horizonte. Quienes escalan montañas altas han logrado ver en ocasiones una buena parte de arco iris circulares completos. Pero ni siquiera las montañas poseen la suficiente altura como para poder llegar a observar un arco iris circular en su totalidad.
Los aviadores han reportado algunas veces haber visto genuinos arco iris circulares completos, los cuales curiosamente han pasado inadvertidos para los pasajeros de sus aeronaves. Esto puede deberse a que las ventanas de los viajeros son muy estrechas y ofrecen un campo de visión muy reducido, a diferencia del impresionante campo visual que tiene el piloto.
Descomposición de la luz en una gota de agua.De manera que, si usted es de las personas que viajan muy a menudo en avión, no desprecie el asiento de ventanilla. Porque, durante un día lluvioso y con un poco de suerte, tal vez llegue a ver un círculo de brillantes colores suspendido en el cielo azul. Una ilusión óptica es cualquier ilusión del sentido de la vista, que nos lleva a percibir la realidad erróneamente. Éstas pueden ser de carácter fisiológico (como el encandilamiento tras ver una luz
113
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
potente) o cognitivo (como la variación en el tamaño aparente de la luna, que parece ser más chica cuando está sobre nosotros y más grande cuando la vemos cerca del horizonte).
Increiblemente, el cuadrado A es exactamente del mismo color que el cuadrado BNo están sometidos a la voluntad y pueden variar entre una persona y otra, dependiendo de factores como: agudeza visual, campimetría, daltonismo, astigmatismo y otros.
Entender estos fenómenos es útil para comprender las limitaciones del sentido visual del ser humano y la posibilidad de distorsión, ya sea en lo relativo a la forma, el color, la dimensión y la perspectiva de lo observado.
Muchos artistas han aprovechado las ilusiones ópticas para dar a sus obras un aspecto mágico, de profundidad, de ambigüedad y contrastes.
El cine también produce una ilusión óptica, ya que una película consiste en una serie de fotografías que al ser proyectadas, dan la sensación de movimiento aparente. Los efectos especiales de las películas, también se basan en ilusiones ópticas.
Algunas ilusiones ópticas son: • • • •
Ilusión de la cuadrícula Espejismo Holograma Estereograma
Aunque no lo parezca, las líneas verticales son iguales y paralelasMuchos artistas han trabajado con las ilusiones ópticas, incluyen M. C. Escher, Salvador Dalí, Giuseppe Arcimboldo, Marcel Duchamp, Oscar Reutersvär y algunos otros que han trabajado con la perspectiva. La ilusión óptica también se usa en el cine, conocida es la técnica de la perspectiva forzada, que nos hace ver maquetas pequeñas como escenarios reales y gigantes
Aberración longitudinal En óptica la aberración longitudinal es la distancia a lo largo del eje óptico desde el foco de los rayos paraxiales hasta el punto en que los rayos provenientes de los bordes exteriores de las lentes o superficies reflectantes intersectan dicho eje. En la aberración de cromatismo, la distancia, medida sobre el eje óptico, entre los focos de dos colores patrón.
Termodinámica Los sistemas físicos que encontramos en la Naturaleza consisten en un agregado de un número muy grande de átomos. La materia está en uno de los tres estados: sólido, líquido o gas: En los sólidos, las posiciones relativas (distancia y orientación) de los átomos o moléculas son fijas. En los líquidos las distancias entre las moléculas son fijas, pero su orientación relativa cambia continuamente. En los gases, las
114
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
distancias entre moléculas, son en general, mucho más grandes que las dimensiones de las mismas. Las fuerzas entre las moléculas son muy débiles y se manifiestan principalmente en el momento en el que chocan. Por esta razón, los gases son más fáciles de describir que los sólidos y que los líquidos. El gas contenido en un recipiente, está formado por un número muy grande de moléculas, 6.02·1023 moléculas en un mol de sustancia. Cuando se intenta describir un sistema con un número tan grande de partículas resulta inútil (e imposible) describir el movimiento individual de cada componente. Por lo que mediremos magnitudes que se refieren al conjunto: volumen ocupado por una masa de gas, presión que ejerce el gas sobre las paredes del recipiente y su temperatura. Estas cantidades físicas se denominan macroscópicas, en el sentido de que no se refieren al movimiento individual de cada partícula, sino del sistema en su conjunto. Conceptos básicos Denominamos estado de equilibrio de un sistema cuando las variables macroscópicas presión p, volumen V, y temperatura T, no cambian. El estado de equilibrio es dinámico en el sentido de que los constituyentes del sistema se mueven continuamente. El estado del sistema se representa por un punto en un diagrama p-V. Podemos llevar al sistema desde un estado inicial a otro final a través de una sucesión de estados de equilibrio. Se denomina ecuación de estado a la relación que existe entre las variables p, V, y T. La ecuación de estado más sencilla es la de un gas ideal pV=nRT, donde n representa el número de moles, y R la constante de los gases R=0.082 atm·l/(K mol).Se denomina energía interna del sistema a la suma de las energías de todas sus partículas. En un gas ideal las moléculas solamente tienen energía cinética, los choques entre las moléculas se suponen perfectamente elásticos, la energía interna solamente depende de la temperatura. Trabajo mecánico hecho por o sobre el sistema.
Consideremos, por ejemplo, un gas dentro de un cilindro. Las moléculas del gas chocan contra las paredes cambiando la dirección de su velocidad, o de su momento lineal. El efecto del gran número de colisiones que tienen lugar en la unidad de tiempo, se puede representar por una fuerza F que actúa sobre toda la superficie de la pared. Si una de las paredes es un pistón móvil de área A, y éste se desplaza dx, el intercambio de energía del sistema con el mundo exterior puede expresarse como el trabajo realizado por la fuerza F a lo largo del desplazamiento dx. dW=-Fdx=-pAdx=-pdV Siendo dV el cambio del volumen del gas.
115
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El signo menos indica que si el sistema realiza trabajo (incrementa su volumen) su energía interna disminuye, pero si se realiza trabajo sobre el sistema (disminuye su volumen) su energía interna aumenta. El trabajo total realizado cuando el sistema pasa del estado A cuyo volumen es VA al estado B cuyo volumen es VB.
El calor El calor no es una nueva forma de energía, es el nombre dado a una transferencia de energía de tipo especial en el que intervienen gran número de partículas. Se denomina calor a la energía intercambiada entre un sistema y el medio que le rodea debido a los choques entre las moléculas del sistema y el exterior al mismo y siempre que no pueda expresarse macroscópicamente como producto de fuerza por desplazamiento. Se debe distinguir también entre los conceptos de calor y energía interna de una sustancia. El flujo de calor es una transferencia de energía que se lleva a cabo como consecuencia de las diferencias de temperatura. La energía interna es la energía que tiene una sustancia debido a su temperatura, que es esencialmente a escala microscópica la energía cinética de sus moléculas. El calor se considera positivo cuando fluye hacia el sistema, cuando incrementa su energía interna. El calor se considera negativo cuando fluye desde el sistema, por lo que disminuye su energía interna. Cuando una sustancia incrementa su temperatura de TA a TB, el calor absorbido se obtiene multiplicando la masa (o el número de moles n) por el calor específico c y por la diferencia de temperatura TB-TA. Q=nc(TB-TA) Cuando no hay intercambio de energía (en forma de calor) entre dos sistemas, decimos que están en equilibrio térmico. Las moléculas individuales pueden intercambiar energía, pero en promedio, la misma cantidad de energía fluye en ambas direcciones, no habiendo intercambio neto. Para que dos sistemas estén en equilibrio térmico deben de estar a la misma temperatura. Primera ley de la Termodinámica La primera ley no es otra cosa que el principio de conservación de la energía aplicado a un sistema de muchísimas partículas. A cada estado del sistema le corresponde una energía interna U. Cuando el sistema pasa del estado A al estado B, su energía interna cambia en U=UB-UA Supongamos que el sistema está en el estado A y realiza un trabajo W, expandiéndose. Dicho trabajo mecánico da lugar a un cambio (disminución) de la energía interna de sistema U=-W
116
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
También podemos cambiar el estado del sistema poniéndolo en contacto térmico con otro sistema a diferente temperatura. Si fluye una cantidad de calor Q del segundo al primero, aumenta su energía interna de éste último en U=Q Si el sistema experimenta una transformación cíclica, el cambio en la energía interna es cero, ya que se parte del estado A y se regresa al mismo estado, U=0. Sin embargo, durante el ciclo el sistema ha efectuado un trabajo, que ha de ser proporcionado por los alrededores en forma de transferencia de calor, para preservar el principio de conservación de la energía, W=Q. •
Si la transformación no es cíclica U 0
•
Si no se realiza trabajo mecánico U=Q
•
Si el sistema está aislado térmicamente U=-W
•
Si el sistema realiza trabajo, U disminuye
•
Si se realiza trabajo sobre el sistema, U aumenta
•
Si el sistema absorbe calor al ponerlo en contacto térmico con un foco a temperatura superior, U aumenta.
•
Si el sistema cede calor al ponerlo en contacto térmico con un foco a una temperatura inferior, U disminuye.
Todos estos casos, los podemos resumir en una única ecuación que describe la conservación de la energía del sistema. U=Q-W Si el estado inicial y final están muy próximos entre sí, el primer principio se escribe dU=dQ-pdV Transformaciones La energía interna U del sistema depende únicamente del estado del sistema, en un gas ideal depende solamente de su temperatura. Mientras que la transferencia de calor o el trabajo mecánico dependen del tipo de transformación o camino seguido para ir del estado inicial al final. Isócora o a volumen constante
117
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
No hay variación de volumen del gas, luego W=0 Q=ncV(TB-TA) Donde cV es el calor específico a volumen constante
Isóbara o a presión constante
W=p(vB-vA) Q=ncP(TB-TA) Donde cP es el calor específico a presión constante
Calores específicos a presión constante cP y a volumen constante cV En una transformación a volumen constante dU=dQ=ncVdT En una transformación a presión constante dU=ncPdT-pdV Como la variación de energía interna dU no depende del tipo de transformación, sino solamente del estado inicial y del estado final, la segunda ecuación se puede escribir como ncVdT=ncPdT-pdV Empleando la ecuación de estado de un gas ideal pV=nRT, obtenemos la relación entre los calores específicos a presión constante y a volumen constante cV=cP-R
Para un gas monoatómico
Para un gas diatómico La variación de energía interna en un proceso AB es U=ncV(TB-TA)
118
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Se denomina índice adiabático de un gas ideal al cociente Isoterma o a temperatura constante pV=nRT La curva p=cte/V que representa la transformación en un diagrama p-Ves una hipérbola cuyas asíntotas son los ejes coordenados.
U=0 Q=W
Adiabática o aislada térmicamente, Q=0 La ecuación de una transformación adiabática la hemos obtenido a partir de un modelo simple de gas ideal. Ahora vamos a obtenerla a partir del primer principio de la Termodinámica.
Ecuación de la transformación adiabática Del primer principio dU=-pdV
Integrando
Donde el exponente de V se denomina índice adiabático del gas ideal
Si A y B son los estados inicial y final de una transformación adiabática se cumple que
119
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Para calcular el trabajo es necesario efectuar una integración similar a la transformación isoterma.
Como podemos comprobar, el trabajo es igual a la variación de energía interna cambiada de signo Si Q=0, entonces W=-U=-ncV(TB-TA)
Química Química es la ciencia que estudia la estructura, propiedades y transformaciones de la materia a partir de su composición atómica, formando diferentes sustancias Campo de trabajo: el átomo Átomo de Helio Los orígenes de la teoría atómica se remontan a la Grecia antigua, a la escuela filosófica de los atomistas. La base empírica para tratar a la teoría atómica de acuerdo con el método científico se debe a un conjunto de trabajos aportados por Lavoiser, Proust, Richter, Dalton, Gay-Lussac y Avogadro, entre otros, hacia principios del siglo XIX.
El átomo es la menor fracción de materia de interés directo para la química, está constituido por diferentes partículas que poseen diferentes tipos de cargas, los electrones con carga negativa, los protones con carga positiva y los neutrones que como su nombre indica son neutros (sin carga); todos ellos aportan masa para contribuir al peso del átomo. El estudio explícito de las partículas subatómicas es parte del dominio de la física, la química sólo está interesada en estas partículas en tanto en cuanto éstas definan el comportamiento de átomos y moléculas. Los átomos son las partes más pequeñas de un elemento (como el carbono, el hierro o el oxígeno). Todos los átomos de un mismo elemento tienen la misma estructura electrónica (responsable esta de la gran mayoría de las características químicas), pudiendo diferir en la cantidad de neutrones (isótopos). Las moléculas son las partes más pequeñas de una sustancia (como el azúcar), y se componen de átomos enlazados entre sí. Si tienen carga eléctrica, tanto átomos como moléculas se llaman iones: cationes si son positivos, aniones si son negativos.
Como los átomos, las moléculas y los iones son muy pequeños, normalmente se trabaja con enormes cantidades de ellos. El mol se usa como contador de unidades, como la docena (12) o el millar (1000), y equivale a . Se dice que 12 gramos de carbono, o un gramo de hidrógeno, o 56 gramos de hierro, contienen aproximadamente un mol de átomos.
Dentro de los átomos, podemos encontrar un núcleo atómico y uno o más electrones. Los electrones son muy importantes para las propiedades y las reacciones químicas.
Los enlaces son las uniones entre átomos para formar moléculas. Siempre que existe una molécula es porque ésta es más estable que los átomos que la forman por separado. A la diferencia de energía entre estos dos estados se le denomina energía de enlace.
120
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Generalmente, los átomos se combinan en proporciones fijas para dar moléculas. Por ejemplo, dos átomos de hidrógeno se combinan con uno de oxígeno para dar una molécula de agua. Esta proporción fija se conoce como estequiometría.
Los enlaces son las uniones entre átomos para formar moléculas. Siempre que existe una molécula es porque ésta es más estable que los átomos que la forman por separado. A la diferencia de energía entre estos dos estados se le denomina energía de enlace.
Generalmente, los átomos se combinan en proporciones fijas para dar moléculas. Por ejemplo, dos átomos de hidrógeno se combinan con uno de oxígeno para dar una molécula de agua. Esta proporción fija se conoce como estequiometría.
Los orbitales son funciones matemáticas para describir procesos físicos: un orbital solo existe en el sentido matemático, como pueden existir una suma, una parábola o una raíz cuadrada. Los átomos y las moléculas son también idealizaciones y simplificaciones: un átomo sólo existe en vacío, una molécula sólo existe en vacío, y, en sentido estricto, una molécula sólo se descompone en átomos si se rompen todos sus enlaces.
En el "mundo real" sólo existen los materiales y las sustancias. Si se confunden los objetos reales con los modelos teóricos que se usan para describirlos, es fácil caer en falacias lógicas.
En agua, y en otros disolventes (como la acetona o el alcohol), es posible disolver sustancias, de forma que quedan disgregadas en las moléculas o iones que las componen (las disoluciones son transparentes). Cuando se supera cierto límite, llamado solubilidad, la sustancia ya no se disuelve, y queda, bien como precipitado en el fondo del recipiente, bien como suspensión, flotando en pequeñas partículas (las suspensiones son opacas o traslúcidas).
Se denomina concentración a la medida de la cantidad de soluto por unidad de cantidad de disolvente.
La concentración de una disolución se puede medir de diferentes formas, en función de la unidad empleada para determinar las cantidades de soluto y disolvente. Las más usuales son:
g/l (Gramos por litro) % p (Concentración porcentual en peso) % V (Concentración porcentual en volumen) M (Molaridad) N (Normalidad) m (molalidad) x (fracción molar) Acidez
121
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El pH es una escala logarítmica para describir la acidez de una disolución acuosa. Los ácidos, como el zumo de limón y el vinagre, tienen un pH bajo (inferior a 7). Las bases, como la sosa o el bicarbonato de sodio, tienen un pH alto (superior a 7).
Formulación y nomenclatura La IUPAC, un organismo internacional, mantiene unas reglas para la formulación y nomenclatura química. De esta forma, es posible referirse a los compuestos químicos de forma sistemática y sin equívocos.
Mediante el uso de fórmulas químicas es posible también expresar de forma sistemática las reacciones químicas, en forma de ecuación química.
Campos de la química
Doble hélice de la molécula de ADNBioquímica - la química de los seres vivos y los procesos de la vida Química analítica - determinación cualitativa y cuantitativa de la composición de las muestras Química física - determinación de las leyes y las constantes fundamentales que rigen los procesos Química inorgánica - síntesis y estudio de los compuestos que no se basan en cadenas de carbono Química orgánica - síntesis y estudio de los compuestos basados en cadenas de carbono Química técnica - la química aplicada a procesos industriales y otras disciplinas de la química
Propiedades de la materia En Física la materia es aquello de lo que están hechos los objetos que constituyen el Universo observable, lo que en común tienen en su composición. La materia tiene dos propiedades que juntas la caracterizan, y éstas son que ocupa un lugar en el espacio y que tiene masa. Junto con la energía, de la que puede considerarse un caso, la materia forma la base de los fenómenos objetivos. Como explicó Einstein, la materia y la energía son interconvertibles, de tal modo que podríamos decir, en sus propias palabras, que la materia es energía superconcentrada y que la energía es materia superdiluida. La materia y sus propiedades • • •
•
La materia es todo lo que existe en el Universo y está compuesto por partículas elementales. La materia se organiza jerárquicamente en varios niveles. El nivel más complejo es la agrupación en moléculas y éstas a su vez son agrupaciones de átomos. Los constituyentes de los átomos, que sería el siguiente nivel son: o Protones: partículas cargadas de electricidad positiva. o Electrones: partículas cargadas de electricidad negativa. o Neutrones: partículas sin carga eléctrica. A partir de aquí hay todo un conjunto de partículas subatómicas que acaban finalmente en los quarks o constituyentes últimos de la materia.
122
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Estados de agregación
Comúnmente la materia se presenta en uno de cuatro estados de agregación molecular: sólido, líquido, gaseoso y plasma. De acuerdo con la teoría cinética molecular la materia se encuentra formada por moléculas y estas se encuentran animadas de movimiento, el cual cambia constantemente de dirección y velocidad cuando chocan o bajo el influjo de otras interacciones físicas. Debido a este movimiento presentan energía cinética que tiende a separarlas, pero también tienen una energía potencial que tiende a juntarlas. Por lo tanto el estado físico de una sustancia puede ser: • • • •
Sólido: si la energía cinética es menor que la potencial. Líquido: si la energía cinética y potencial son aproximadamente iguales. Gaseoso: si la energía cinética es mayor que la potencial. Plasma: Cuando la materia está muy caliente, tiene tanta energía cinética que los átomos no pueden existir como tales y los componentes atómicos se disocian generando un gas altamente ionizado y caliente. Dicho estado lo podemos encontrar en el sol.
A temperaturas extremadamente bajas se dan otros estados de la materia con propiedades exóticas como la superfluidez. Actualmente, 05 de Julio de 2005, se conocen hasta 9 estados de la materia, la mayoría de ellos se dan en condiciones extremas de temperatura, presión, etc, como pueden ser los condensados de Bose-Einstein o un gas de átomos que, a altas temperaturas, se comporta como un superfluito, o fluido perfecto.
Ley de la conservación de la materia
Lavoiser un científico francés midió cuidadosamnete la masa de las sustancias antes y despues de diversas reacciones químicas y llegó a la conclusión de que la materia no se puede crear ni destruir, solon se transforma durante las reacciones. Lo anterior se conoce como la ley de la conservación de la energía, y es una de las leyes más importantes de la Química. Se enuncia así:
La materia no se crea ni se destruye, sólo se transforma. La conservación de la materia no es un hecho evidente. Por ejemplo, cuando cocinamos arroz o cocemos unos pulpos, parece que la cantidad de materia aumenta o disminuye. Lo mismo podemos pensar cuando engordamos o adelgazamos.Parece que la materia se crea cuando engordamos y desaparece cuando adelgazamos. Sin Embargo, y aunque no sea evidente osea obvio!, la cantidad de materia siempre es la misma, lo único que pasas es que se transforma en otro tipo de materia o en energía. Propiedades de la Materia Ordinaria Propiedades generales Las presentan los cuerpos sin distinción y por tal motivo no permiten diferenciar una sustancia de otra. Algunas de las propiedades generales se les da el nombre de extensivas, pues su valor depende de la cantidad de materia, tal es el caso de la masa, peso, volumen, la inercia, la energía, impenetrabilidad, porosidad, divisibilidad, elasticidad, maleabilidad, tenacidad y dureza entre otras.
Propiedades características
123
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Permiten distinguir una sustancia de otra. También reciben el nombre de propiedades intensivas porque su valor es independiente de la cantidad de materia. Las propiedades características se clasifican en:
Físicas Es el caso de la densidad, el punto de fusión, el punto de ebullición, el coeficiente de solubilidad, el índice de refracción, el módulo de Young y las propiedades organolépticas.
Químicas Están constituidas por el comportamiento de las sustancias al combinarse con otras, y los cambios con su estructura íntima como consecuencia de los efectos de diferentes clases de energía.
Ejemplos: • • • •
corrosividad de ácidos poder calorífico acidez reactividad
Estequiometría La estequiometría (del griego στοιχειον, stoicheion, letra o elemento básico constitutivo y μετρον, métron, medida) hace referencia al número relativo de átomos de varios elementos encontrados en una sustancia química y a menudo resulta útil en la calificación de una reacción química.
La estequiometría es el estudio de las relaciones cuantitativas en las reacciones químicas. Las relaciones molares y másicas se pueden obtener de una ecuación balanceada. En la mayoría de los problemas estequiométricos, las masas de los reactantes están dadas y se buscan las masas de los productos. Se puede interpretar una ecuación química en términos del número de moléculas (o iones o unidades fórmula) o en términos del número de moles de moléculas dependiendo de las necesidades.
Química orgánica La química orgánica es la química de los compuestos de carbono. El nombre engañoso <
> es una reliquia de los tiempos en que los compuestos químicos se dividían en dos clases: inorgánicos y orgánicos, según su procedencia. Los compuestos inorgánicos eran aquellos que procedían de los minerales, y los orgánicos, los que se obtenían de fuentes vegetales y animales, o sea, de materiales producidos por organismos vivos. De hecho, hasta aproximadamente 1850 muchos químicos creían que los compuestos orgánicos debían tener su origen en organismos vivos y, en consecuencia, jamás podrían ser sintetizados a partir de sustancias inorgánicas.
Los compuestos de fuentes orgánicas tenían en común lo siguiente: todos contenían el elemento carbono. Aun después de haber quedado establecido que estos compuestos no tenían necesariamente que proceder de fuentes vivas, ya que podían hacerse en el laboratorio, resultó conveniente mantener el nombre orgánico para describir éstos y otros compuestos similares, persistiendo hasta la fecha esta división entre compuestos inorgánicos y orgánicos.
124
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Aunque aún hoy muchos compuestos del carbono se aíslan mejor a partir de fuentes vegetales y animales, la mayoría de ellos se obtienen por síntesis. A veces se sintetizan a partir de sustancias inorgánicas, como carbonatos y cianuros, pero más a menudo se parte de otros compuestos orgánicos. Hay dos grandes fuentes de las que se pueden obtener sustancias orgánicas simples: el petróleo y el carbón. (Ambas son <> en el sentido tradicional, puesto que son producto de la descomposición de plantas y animales.) Estas sustancias simples se emplean como elementos básicos, a partir de los cuales se pueden hacer compuestos más complicados.
Reconocemos al petróleo y al carbón como combustibles fósiles, acumulados durante milenios y no renovables que se están consumiendo a una velocidad alarmante, en particular el petróleo, para satisfacer nuestra siempre creciente demanda de energía. Hoy, menos del 10% del petróleo utilizado se consume en la fabricación de productos químicos; la mayor parte, sencillamente, se quema para proporcionar energía. Afortunadamente, existen otras fuentes de energía: la solar, la geotérmica y la nuclear, pero ¿dónde habremos de encontrar una reserva sustitutiva de materias orgánicas? Tarde o temprano, por supuestos, tendremos que volver al lugar de donde proceden originalmente los combustibles fósiles -la biomasa- aunque ahora directamente, prescindiendo de los milenios que intervinieron. La biomasa es renovable y, utilizada adecuadamente, puede perdurar en este planeta tanto como nosotros mismos. Mientras tanto, se ha sugerido que el petróleo es demasiado valioso para ser quemado.
¿Qué tienen de especial los compuestos del carbono que justifique su separación de los otros ciento y pico elementos de la tabla periódica? Al menos parcialmente, la respuesta parece ser ésta: hay muchísimos compuestos del carbono, y sus moléculas pueden ser muy grandes y complejas.
El número de compuestos que contienen carbono es muchas veces mayor que el número de los que no lo contienen. Estos compuestos orgánicos se han dividido en familias que, en general, no tienen equivalentes entre los inorgánicos.
Se conocen moléculas orgánicas que contienen miles de átomos, cuyo ordenamiento puede ser muy complicado, aun en moléculas relativamente pequeñas. Uno de los principales problemas en química orgánica es encontrar cómo se ordenan los átomos en las moléculas, o sea, determinar las estructuras de los compuestos.
Hay muchas maneras en que estas complicadas moléculas pueden romperse o reordenarse para generar moléculas nuevas; hay muchas formas de agregar átomos a estas moléculas o de sustituir átomos nuevos por antiguos. Una parte importante de la química orgánica se dedica a encontrar estas reacciones, cómo suceden y cómo pueden emplearse para sintetizar las sustancias que queremos.
¿Que tiene de especial el carbono para formar tantos compuestos? La respuesta a esta pregunta se le ocurrió a August Kekulé en 1854 durante un viaje en ómnibus en Londres. <
125
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
par; vi cómo uno más grande aceptaba dos más pequeños; cómo uno aún mayor sujetaba a tres e incluso a cuatro de loa más pequeños, mientras el conjunto continuaba arremolinándose en una danza vertiginosa. Vi cómo los más grandes formaban una cadena... Pasé parte de la noche vertiendo al papel algunos esbozos de estas formas soñadas.>> ( August Kekulé, 1890.)
Los átomos de carbono pueden unirse entre sí hasta grados imposibles para los átomos de cualquier otro elemento. Pueden formar cadenas de miles de átomos o anillos de todos los tamaños; estas cadenas y anillos pueden tener ramificaciones y uniones cruzadas. A los carbonos de estas cadenas y anillos se unen otros átomos; principalmente de hidrógeno, pero también de flúor, cloro, bromo, yodo, oxígeno, nitrógeno, azufre, fósforo y muchos otros.
Cada ordenamiento atómico diferente corresponde a un compuesto distinto, y cada compuesto tiene su conjunto de características químicas y físicas. No es sorprendente que hoy se conozcan cerca de diez millones de compuestos del carbono y que este número aumente en medio millón cada año. No es de sorprender que el estudio de su química sea un campo especializado.
La química orgánica es un campo inmensamente importante para la tecnología: es la química de los colorantes y las drogas, del papel y las tintas, de las pinturas y los plásticos, de la gasolina y lo neumáticos; es la química de nuestros alimentos y de nuestro vestuario. La química orgánica es fundamental para la biología y la medicina. Los organismos vivos están constituidos principalmente por sustancias orgánicas, además de agua; las moléculas de la <> son orgánicas. A nivel molecular, la biología es química orgánica.
Parte 2 La teoría estructural <> (Friedrich Wohler, 1835.)
¿Cómo podemos siquiera comenzar el estudio de una materia tan enormemente compleja? ¿Es hoy la química orgánica como la veía Wohler hace siglo y medio? La selva aún está ahí- en gran parte inexplorada- y en ella hay cosas mucho más notables que las que Wohler puedo haber soñado. Sin embargo, mientras no vayamos demasiado lejos, ni demasiado aprisa, podremos penetrar en ella sin el temor a perdernos, pues tenemos un mapa: la teoría estructural.
La teoría estructuras es la base sobre la cual se han acumulado millones de hechos acerca de cientos de miles de compuestos individuales, ordenándolos en forma sistemática. Es la base sobre la cual estos hechos pueden explicarse y comprenderse mejor. La teoría estructural es el marco de ideas acerca de cómo se unen los átomos para formar moléculas. Tiene que ver con el orden en que se juntan los átomos y con los electrones que los mantienen unidos. Tiene que ver con las formas y tamaños de las moléculas que generan estros átomos y con el modo de distribución de los electrones a su alrededor.
A menudo se presenta una molécula por un dibujo o un modelo; a veces por varios dibujos o varios modelos. Los núcleos atómicos se presentan por letras o esferas de plástico, y los electrones que los unen, por líneas, punto o varillas de plásticos. Estos modelos y dibujos aproximados son útiles
126
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
para nosotros sólo si entendemos lo qué representan. Interpretados en función de la teoría estructural, nos revelan bastante acerca del compuesto cuyas moléculas representan; cómo proceder para hacerlo, qué propiedades físicas se pueden esperar de él- punto de fusión, punto de ebullición, densidad, tipo de disolventes en que se disolverá el compuesto, si será coloreado o no, qué tipo de comportamiento químico esperar-, la clase de reactivos con los que reaccionará y el tipo de productos que formará, y si reaccionará rápida y lentamente. Se podría saber todo esto acerca de un compuesto desconocido para nosotros simplemente partiendo de su fórmula estructural y de los que entendemos que ésta significa.
Parte 3 1.3 El enlace químico antes de 1926
Toda consideración de la estructura de las moléculas debe comenzar con un estudio de los enlaces químicos, las fuerzas que mantienen unidos a los átomos en una molécula. Estudiaremos los enlaces químicos en función de la teoría desarrollada antes de 1926, y luego en función de la teoría actual. La introducción de la mecánica cuántica en 1926 provocó un gran cambio en las ideas sobre la formación de las moléculas. Por conveniencia, aún suelen emplearse las representaciones pictóricas y el lenguaje iniciales, más simples. Dándoles una interpretación moderna.
En 1916 se describieron dos clases de enlace químico: el enlace iónico, por Walter (Alemania), y el enlace covalente, por G. N. Lewis ( de la Universidad de California).
Kossel
Tanto Kossel como Lewis basaron sus ideas en el siguiente concepto del átomo. Un núcleo cargado positivamente está rodeado de electrones ordenados en capas o niveles energéticos concéntricos. Hay un máximo de electrones que se pueden acomodar en cada capa: dos en la primera, ocho en la segunda, ocho o dieciocho en la tercera, y así sucesivamente. La estabilidad máxima se alcanza cuando se completa la capa externa, como en los gases nobles. Tanto los enlaces iónicos como los covalentes surgen de la tendencia de los átomos a alcanzar esta configuración electrónica estable. El enlace iónico resulta de la transferencia de electrones, como, por ejemplo, en la formación del fluoruro de litio. Un átomo de litio tiene dos electrones en su capa interna y uno en su capa externa o de valencia; la pérdida de un electrón dejaría al litio con una capa externa completa de dos electrones. Un átomo de flúor tiene dos electrones en su capa interna y siete en su capa de valencia; la ganancia de un electrón daría el flúor una capa externa completa con ocho electrones. El fluoruro de litio se forma por la transferencia de un electrón del litio al flúor; el litio tiene ahora una carga positiva, y el flúor, una negativa. La atracción electrostática entre iones de carga opuesta se denomina enlace iónico, el cual es típico en las sales formadas por combinación de elementos metálicos (elementos electropositivos) del extremo izquierdo de la tabla periódica con los elementos no metálicos ( elementos electronegativos) del extremo derecho.
El enlace covalente resulta de compartir electrones, como, por ejemplo, en la formación de la molécula de hidrógeno. Cada átomo de hidrógeno tiene un solo electrón; al compartir un par de electrones, ambos hidrógenos pueden completar sus capas de dos. Dos átomos de flúor, cada uno con siete electrones. De forma similar, podemos visualizar la formación de HF, H2O, NH3, CH4 y CF4. También aquí la fuerza de unión es la atracción electrostática, esta vez entre cada electrón y ambos núcleos.
127
H + H
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
H
H
F + F
F
F
H + F
H
F
2H + O
H
H O
3H + N
H H N
4H + C
4 F +
C
2012
H H H C H F F F C
El enlace covalente es típico de los compuestos del carbono; es el enlace de mayor importancia en el estudio de la química orgánica. F Parte 4 1.4 Mecánica cuántica
En 1926 salió a la luz la teoría conocida como mecánica cuántica, cuyo desarrollo, en la forma más útil para los químicos, se debe a Erwin Schrodinger (de la Universidad de Zurich), que desarrolló expresiones matemáticas para describir el movimiento de un electrón en función de su energía. Estas expresiones matemáticas se conocen como ecuaciones de onda, puesto que se basan en el concepto de que el electrón no sólo presenta propiedades de partículas, sino también de ondas.
Una ecuación de onda tiene diversas soluciones, llamadas funciones de onda, y cada una corresponde a un nivel de energía diferente para el electrón. Salvo para los sistemas más simples, las matemáticas correspondientes a la obtención de soluciones consumen tanto tiempo esto lo cambiarán algún día los computadores superveloces que sólo es posible obtener soluciones aproximadas. Aun así, la mecánica cuántica da respuestas que concuerdan tan bien con los hechos que es aceptada hoy día como la herramienta más útil para la comprensión de las estructuras atómica y molecular. <
128
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
si se quiere, todos ellos presentan una sola lógica, y cómo pueden escondida entre ellos.>> (C. A. Coulson. Londres, 1951.)
2012
develarse esta relación
Parte 5 1.5 Orbitales atómicos Una ecuación de onda no puede indicarnos exactamente el lugar en que se encuentra un electrón en un instante particular ni lo rápido que se está moviendo; no nos permite dibujar una órbita precisa en torno al núcleo. En cambio, nos revela la probabilidad de encontrar el electrón en cualquier lugar particular.
La región en el espacio en la que es probable que se encuentre un electrón se denomina orbital. Hay diferentes tipos de orbitales, con tamaño y formas diferentes, y que están dispuestos en torno al núcleo de maneras específicas. El tipo particular de orbital que ocupa un electrón depende de su energía. Nos interesan especialmente las formas de estos orbitales y sus posiciones recíprocas, puesto que determinan o, más exactamente, puede considerarse que determinan las disposición espacial de los átomos de una molécula e incluso ayudan a determinar su comportamiento químico.
Es útil visualizar un electrón como si se difundiera para formar una nube. Esta nube se puede imaginar como una especie de fotografía borrosa del electrón en rápido movimiento. La forma de la nube es la forma del orbital. La nube no es uniforme, sino que es más densa en aquellas regiones en las cuales la probabilidad de hallar el electrón es máxima, o sea, en aquellas regiones donde la carga negativa promedio, o densidad electrónica, es máxima.
Veamos cuáles son las formas de algunos orbitales atómicos. El orbital correspondiente al nivel energético más bajo se denomina 1s, y es una esfera cuyo centro coincide con el núcleo del átomo, como se representa en la figura 1.1. Un orbital no tiene un límite definido, puesto que hay una probabilidad, aunque muy pequeña, de encontrar el electrón esencialmente separado del átomo, e incluso sobre otro átomo. Sin embargo, la probabilidad decrece muy rápidamente más allá de cierta distancia del núcleo, de modo que la distribución de carga está bastante bien representada por la nube electrónica de la figura 1.1a. Para simplificar, podemos incluso representar un orbital como en la figura 1.1b, en la que la línea continua encierra la región donde el electrón permanece durante la mayor parte del tiempo (por ejemplo, el 95%).
S
(b)
(a)
Fig. 1.1 Orbitales atómicos: orbital s. El núcleo está en el centro.
129
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
En el nivel energético siguiente se encuentra el orbital 2s, que también es una esfera con su centro en el núcleo atómico, y es naturalmente mayor que el 1s: la mayor energía (menor estabilidad) se debe a la mayor distancia promedio entre el electrón y el núcleo, con la consiguiente disminución de la atracción electrostática. (Considérese el trabajo que debe realizarse la energía a introducir en el sistema para alejar un electrón del núcleo, que tiene carga opuesta.)
A continuación hay tres orbitales de igual energía, llamados orbitales 2p, ilustrados en la figura 1.2. Cada orbital 2p tiene forma de huso y consta de dos lóbulos entre los cuales está el núcleo atómico. El eje de cada orbital 2p es perpendicular a los ejes de los otros dos. Se diferencian por los símbolos 2px, 2py y 2pz, en los que x, y y z son los ejes correspondientes.
(a) z
x
y
(b) z Pz Py
Px y
x (c)
Fig. 1.2 Orbitales atómicos: orbitales p. Ejes mutuamente perpendiculares. (a) Sección transversal mostrando los dos lóbulos de un orbital individual. (b) Forma aproximada de pares de elipsoides distorsionados. (c) Representación como pares de esferas que no llegan a tocarse.
Parte 6 1.6 Configuración electrónica. Principio de exclusión de Pauli
130
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Hay una serie de <> que determinan el modo de distribución de los electrones de un átomo, es decir, que determinan la configuración electrónica de un átomo. La más fundamental de estas reglas es el principio de exclusión de Pauli: un orbital atómico determinado puede ser ocupado por sólo dos electrones, que para ello deben tener espines opuestos. Estos electrones de espines opuestos se consideran apareados. Electrones de igual espín tienden a separarse lo máximo posible. Esta tendencia es el más importante de los factores que determinan las formas y propiedades de las moléculas.
El principio de exclusión, desarrollado en 1925 por Wolfgang Pauli hijo, del Instituto de Física Teórica de Hamburgo (Alemania), se considera la piedra angular de la química.
Los diez primeros elementos de la tabla periódica tienen las configuraciones electrónicas indicadas en la tabla 1.1. Podemos apreciar que un orbital no se ocupa hasta que los orbitales de energía más baja están llenos ( o sea, 2s después de 1s, 2p después de 2s).
Observamos que un orbital no es ocupado por un par de electrones hasta que otros orbitales de igual energía no sean ocupados por un electrón ( los orbitales 2p). Los electrones 1s completan la primera capa de dos, y los electrones 2s y 2p completan la segunda capa de ocho. Para elementos más allá de los diez primeros hay una tercera capa que contiene un orbital 3s, orbitales 3p, y así sucesivamente.
Parte 7 1.7 Orbitales moleculares En las moléculas, al igual que en los átomos aislados, y de acuerdo con las mismas <>, los electrones ocupan orbitales. Estos orbitales moleculares se consideran centrados en torno a muchos núcleos, cubriendo quizá la molécula entera; la distribución de núcleos y electrones es simplemente la que da como resultado la molécula más estable. Para facilitar las complicadísimas operaciones matemáticas, por lo general se emplean dos supuestos simplificadores: (a) que cada par de electrones está localizado esencialmente cerca de dos núcleos solamente y (b) que las formas de estos orbitales moleculares localizados, y su disposición con respecto a los demás, están relacionadas de modo sencillo con las formas y disposiciones de los orbitales atómicos de los átomos que componen la molécula.
La idea de los orbitales moleculares localizados o lo que podríamos llamar orbitales de enlace sin duda es buena, puesto que, matemáticamente, este método de aproximación es válido para la mayoría de las moléculas (pero no para todas). Además, esta idea se acerca bastante al concepto clásico de los químicos, según el cual un enlace es una fuerza que actúa entre dos átomos y es prácticamente independiente del resto de la molécula; no es accidental que este concepto haya funcionado bien durante cien años. Es significativo que las moléculas excepcionales, para las cuales las fórmulas clásicas no funcionan, son justamente las mismas para las que tampoco sirve el enfoque orbital molecular localizado. (Veremos que aun estos casos se pueden manejar por medio de una adaptación bastante sencilla de fórmulas clásicas, una adaptación que también se asemeja a un método de aproximación matemática.)
131
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El segundo supuesto, el de una relación entre orbitales atómicos y moleculares, es evidente, como se apreciará en la siguiente sección. Ha demostrado ser tan útil que, en ciertos casos, se han inventado orbitales determinados sólo para poder mantener dicho supuesto. Parte 8 1.8 El enlace covalente
Consideramos ahora la formación de una molécula. Por conveniencia, imaginaremos que esto sucede por aproximación de átomos individuales, aunque la mayoría de las moléculas no se forman así. Construimos modelos físicos de moléculas con esferas de madera o plástico que representan los diversos átomos; la ubicación de hoyos o broches nos indica cómo unirlos. Del mismo modo, haremos modelos mentales de moléculas con átomos imaginarios; la ubicación de los orbitales atómicos algunos de ellos imaginarios nos indicará cómo unir los átomos.
Para que se forme un enlace covalente, deben ubicarse dos átomos de manera tal que el orbital de uno de ellos solape al orbital del otro; cada orbital debe contener solamente un electrón. Cuando sucede esto, ambos orbitales atómicos se combinan para formar un solo orbital de enlace ocupado por ambos electrones, que deben tener espines opuestos, es decir, deben estar aparecidos. Cada electrón dispone del orbital de enlace entero, por lo que puede considerarse como <> a ambos núcleos atómicos.
Esta disposición de electrones y núcleos contiene menos energía es decir, es más estable que la disposición en los átomos aislados; como resultado, la formación de un enlace va acompañada de liberación de energía. La cantidad de energía (por mol) desprendida durante la formación del enlace (o la cantidad necesaria para romperlo) se denomina energía de disociación del enlace. Para un par dado de átomos, cuanto mayor sea el solapamiento de orbitales atómicos, más fuerte será el enlace.
¿Qué es lo que da al enlace covalente su fuerza? Es el aumento de atracción electrostática. En los átomos aislados, cada electrón es atraído por, y atrae a, un núcleo positivo; en la molécula, cada electrón es atraído por dos núcleos positivos. El concepto de <> es el que proporciona el puente mental entre orbitales atómicos y de enlace. El solapamiento de orbitales atómicos significa que el orbital de enlace ocupa gran parte de la región espacial previamente cubierta por ambos orbitales atómicos. En consecuencia, un electrón de un átomo puede permanecer en gran medida en su ubicación original, favorable con respecto a <> núcleo, y ocupar, al mismo tiempo, una posición favorable similar con respecto al segundo núcleo; por supuesto, esto mismo vale para el otro electrón.
El principio de solapamiento máximo, formulado por primera vez por Linus Pauling en 1931 (Instituto Tecnológico de California), ha sido clasificado en importancia sólo ligeramente por debajo del principio de exclusión para la comprensión de la estructura molecular.
Como primer ejemplo, consideremos la formación de la molécula de hidrógeno, H2, a partir de dos átomos. Cada átomo de hidrógeno tiene un electrón, el cual ocupa el orbital 1s. Como hemos visto, éste es una esfera cuyo centro es el núcleo atómico. Para que se forme un enlace, ambos núcleos
132
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
deben acercarse lo suficiente para que se produzca el solapamiento de los orbitales atómicos (Fig. 1.3). Para el hidrógeno, el sistema más estable resulta cuando la distancia entre los núcleos es de 0.74 A, denominada longitud de enlace. A esta distancia, el efecto estabilizador del solapamiento es exactamente compensado por la repulsión entre núcleos de igual carga. La molécula de hidrógeno resultante contiene 104 kcal/mol menos de energía que los átomos a partir de los cuales fue construida. Se dice que el enlace hidrógeno-hidrógeno tiene una longitud de 0.74 A y una fuerza de 104 kcal.
H
H
H
H (a)
(b)
H H
H H
(c)
(d)
Fig. 1.3 Formación de enlace: molécula de H2. (a) Orbitales s separados. (b) Solapamiento de orbitales s. (c) y (d) El orbital de enlace o.
Este orbital de enlace tiene aproximadamente la forma que se espera obtener de la fusión de dos orbitales s. Tal como indica la figura 1.3, tiene aspecto de salchicha, cuyo eje mayor coincide con la línea que une los núcleos; en torno a este eje, es cilíndricamente simétrico, o sea, un corte de esta salchicha es circular. Los orbitales de enlace que tienen este aspecto, se denominan orbitales o (orbitales sigma) y los enlaces correspondientes son los enlaces o. Podemos imaginar la molécula de hidrógeno como formada por dos núcleos sumergidos en una sola nube electrónica con forma de salchicha. La densidad máxima de la nube está en la región entre ambos núcleos, donde la carga negativa es atraída más intensamente por las dos cargas positivas.
El tamaño de la molécula de hidrógeno determinado, por ejemplo, por el volumen interior de la superficie de probabilidad de 95% es considerablemente menor que el de un átomo de hidrógeno individual. Aunque parezca extraño, de hecho es de esperar esta contracción de la nube electrónica: la intensa atracción que ejercen dos núcleos sobre los electrones confiere mayor estabilidad a la molécula que la de átomos de hidrógeno aislados; esto significa que los electrones están sujetos más firmemente, están más próximos, que en los átomos.
Supongamos luego la formación de la molécula de flúor, F2, a partir de dos átomos. Según vemos en la tabla de configuraciones electrónicas (Tabla 1.1), un átomo de flúor tiene dos elementos en el orbital 1s y dos en cada uno de dos orbitales 2p; en el tercer orbital 2p hay un solo electrón no apareado y disponible para formar un enlace. El solapamiento de este orbital p con uno similar de otro átomo de flúor permite que los electrones se aparecen y que se forme el enlace (Fig. 1.4). La carga electrónica se concentra entre ambos núcleos, de modo que el lóbulo posterior de cada uno de los orbitales solapados se contrae hasta alcanzar un tamaño relativamente pequeño. Aunque formado por el solapamiento de orbitales a atómicos de diferente tipo, el enlace flúorflúor tiene la misma forma general que el enlace hidrógeno-hidrógeno, por ser cilíndricamente
133
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
simétrico en torno a la línea de unión de los núcleos; también se denomina enlace o. El enlace flúor-flúor tiene una longitud de 1.42 A y una fuerza de unas 38 kcal.
F
F (a)
F
F
F
F (c)
(b)
Fig. 1.4 Formación de enlace: molécula de F2. (a) Orbitales p separados. (b) Solapamiento de orbitales p. (c) El orbital de enlace o.
Como indica el ejemplo, un enlace covalente resulta del solapamiento de dos orbitales atómicos para formar un orbital de enlace ocupado por un par de electrones. Cada tipo de enlace covalente una longitud y una fuerza características. Parte 9 1.9 Orbitales híbridos: sp
A continuación, consideremos el cloruro de berilio, BeCI2. El berilio (Tabla 1.1) carece de electrones no apareados. ¿Como podemos explicar su combinación con dos átomos de cloro? La formación de enlaces es un proceso que libera energía (estabilizante) y tiende a formar enlaces el máximo posible aunque esto conduzca a orbitales que tengan poca relación con los orbitales atómicos considerados hasta ahora. Si queremos aplicar aquí nuestro método mental de construcción de moléculas, habrá que modificarlo. Debemos inventar un tipo imaginario de átomo de berilio, uno que esté a punto de enlazarse con dos átomos de cloro.
1s
2s
2p
Be Para llegar a este átomo divalente de berilio, efectuamos un pequeño cálculo electrónico. En primer lugar, <> uno de los electrones 2s a un orbital p vacío.
134
1s
2s
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
2p
Un electrón promovido: dos electrones no apareados
Be
Esto proporciona dos electrones no apareados, necesarios para enlazar con dos átomos de cloro. Sería de esperar ahora que el berilio formase un enlace de un tipo empleando el orbital p y uno de otro tipo con el orbital s. Nuevamente, esto no corresponde a los hechos: se sabe que los dos enlaces del cloruro de berilio son equivalentes.
1s
p
2s
Be Hibridación sp sp 1s
2p
Be Entonces hibridizemos los orbitales. Tomamos matemáticamente varias posibles combinaciones de un orbital s y otro p, y se hallan los orbitales mixtos (híbridos) con el grado máximo de carácter direccional (Fig. 1.5). Cuando más se concentra un orbital atómico en la dirección del enlace, mayor será el solapamiento y más fuerte el enlace que puede formar. De estos cálculos se obtienen tres resultados muy significativos: (a) el <> orbital híbrido resulta mucho más direccional que el orbital s o el p; (b) los dos orbitales mejores son exactamente equivalentes, y (c) estos orbitales apuntan en direcciones opuestas, la disposición que les permite alejarse al máximo entre sí (recuérdese el principio de exclusión de Pauli). El ángulo entre los orbitales es entonces de 180º.
135
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
(a)
sp
sp 180º
(b)
(c)
Fig. 1.5 Orbitales atómicos: orbitales híbridos sp (a) Corte transversal y forma aproximada de un orbital individual, definitivamente dirigido a lo largo de un eje. (b) Representación como una esfera, con omisión del pequeño lóbulo posterior. (c) Dos orbitales con ejes a lo largo de una línea recta. Estos orbitales híbridos específicos se conocen como orbitales sp, puesto que se consideran como el resultado de la mezcla de un orbital s y uno p, y tienen la forma indicada en la figura 1.5a; por conveniencia, depreciaremos el pequeño lóbulo posterior y representaremos el delantero como una esfera.
Construyamos el cloruro de berilio usando este berilio sp-hibridizado. Surge aquí un concepto extremadamente importante: el ángulo de enlace. Para lograr el solapamiento máximo entre los orbitales sp del berilio y los p de los cloruros, los dos núcleos de cloro deben encontrarse sobre los ejes de los orbitales sp, es decir, deben estar localizados en lados exactamente opuestos del átomo de berilio (Fig. 1.6). Por tanto, el ángulo entre los enlaces berilio-cloro debe ser de 180º.
CI
p
sp
Be
sp
p
CI
(a) CI
Be
CI
CI
Be
CI
180º (c)
(b)
Fig. 1.6 Formación de enlaces: molécula de BeCI2. (a) Solapamiento de orbitales sp y p. (b) Los orbitales de enlace o. (c) Forma de la molécula.
136
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Experimentalmente, se ha demostrado que, según lo calculado, el cloruro de berilio es una molécula lineal, con los tres átomos ubicados sobre una sola línea recta.
No hay nada de mágico en el aumento del carácter direccional que acompaña a la hibridación; los dos lóbulos del orbital p son de fase opuesta (Sec. 33.2); la combinación con un orbital s significa adición a un lado del núcleo, pero sustracción en el otro.
I
+
s
p
sp
Si se tiene curiosidad con respecto a las fases y su efecto sobre los enlaces, léanse las secciones 33.1 a 33.4, que permitirán entender este punto. Parte 10 1.10 Orbitales híbridos: sp2
Veamos ahora el trifluoruro de boro, BF3. El boro (Tabla 1.1) tiene sólo un electrón no apareado, que ocupa un orbital 2p. Para tres enlaces necesitamos tres electrones no apareados, por lo que promovemos uno de los electrones 2s a un orbital 2p:
137
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
1s
2012
2p
2s
B
Un electrón promovido: tres electrones no apareados 1s
2p
2s
B
1s
2p
2s
B Hibridación sp2 1s
2p2
2p
B
Si ahora queremos <> la molécula más estable posible, debemos <> los enlaces más fuertes posibles, para lo que hay que proporcionar los orbitales atómicos más intensamente direccionales que se pueda. Nuevamente, la hibridación nos proporciona tales orbitales: tres de ellos híbridos y exactamente equivalente entre sí. Cada uno tiene la forma indicada en la figura 1.7 y, como antes, despreciaremos el pequeño lóbulo posterior y representaremos el delantero como una esfera.
138
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
(a)
sp sp2
sp2 120º
(b)
(c) 2
Fig. 1.7 Orbitales atómicos: orbitales híbridos sp . (a) Corte transversal y forma aproximada de un orbital aislado, definitivamente dirigido a lo largo de un eje. (b) Representación como una esfera, con omisión del pequeño lóbulo posterior. (c) Tres orbitales, con ejes dirigidos hacia los vértices de un triángulo equilátero. Estos orbitales híbridos se llaman sp2, debido a que se consideran generados por la mezcla de un orbital s y dos orbitales p. Se encuentran en un plano que incluye el núcleo atómico y dirigidos hacia los vértices de un triángulo equilátero, de modo que el ángulo entre dos orbitales cualesquiera es de 120º. Nuevamente, observamos la geometría que permite la separación máxima posible de los orbitales: en este caso, es una disposición trigonal ( de tres vértices).
Cuando ordenamos los átomos para lograr el solapamiento máximo de cada uno de los orbitales sp2 del boro con un orbital p del flúor, obtenemos la estructura ilustrada en la figura 1.8: una molécula plana, con el átomo de boro en el centro de un triángulo y los tres átomos de flúor en los vértices; cada ángulo de enlace es de 120º.
2 F sp sp2 B F sp2 F 120º Fig. 1.8 Molécula de BF3. Por experimentación se ha demostrado que el fluoruro de boro tiene esta estructura plana y simétrica calculada por mecánica cuántica.
Parte 11
139
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
1.11 Orbitales híbridos: sp3
Consideremos ahora una de las moléculas orgánicas más simples, el metano, CH4. El carbono (Tabla 1.1) tiene un electrón no apareado en cada uno de los dos orbitales p, por lo que sería de esperar que formara el compuesto CH2. (Lo forma, pero el CH2 es una molécula altamente reactiva cuyas propiedades se centran en torno a la necesidad de procurarle al carbono dos enlaces adicionales.) Observamos nuevamente la tendencia a formar el máximo posible de enlaces; en este caso, la combinación con cuatro átomos de hidrógeno.
1s
2p
2s
C
Para disponer de cuatro electrones no apareados, promovemos uno de los electrones 2s a un orbital p vacío:
1s
2s
2p
Un electrón promovido: cuatro electrones no apareados
C
Una vez más, los orbitales más intensamente direccionales son híbridos: esta vez son orbitales sp3, que resultan de la mezcla de un orbital s y tres p. Cada uno tiene la forma ilustrada en la figura 1.9; tal como hemos hecho con los orbitales sp y sp2, despreciaremos al pequeño lóbulo posterior y representaremos el delantero por medio de una esfera.
1s
2p
2s
C Hibridación sp2 1s
sp3
C ¿Qué disposición espacial tienen los orbitales sp3? Para nosotros, la respuesta no es una sorpresa: aquella que les permite separarse al máximo. Se dirigen hacia los vértices de un tetraedro regular. El ángulo entre dos orbitales cualesquiera es el tetraédrico de 109.5º
140
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
(a)
3 sp2
(b) Fig. 1.9 Orbitales atómicos: Orbitales híbridos sp3.(a) Corte transversal y forma aproximada de un orbital aislado, definitivamente dirigido a lo largo de un eje. (b) Representación como una esfera, con omisión del pequeño lóbulo posterior. (c) Cuatro orbitales, con ejes dirigidos hacia los vértices de un tetraedro.
(Fig. 1.9). AI igual que genera dos enlaces lineales o tres trigonales, la repulsión mutua entre orbitales también genera cuatro enlaces tetraédricos. El solapamiento de cada uno de los orbitales sp3 del carbono con un orbital s del hidrógeno genera metano, con el carbono en el centro de un tetraedro regular y los cuatro hidrógenos en los vértices (Fig. 1.10).
Se ha encontrado experimentalmente que el etano tiene la estructura altamente simétrica que hemos armado. Cada enlace carbono-hidrógeno tiene exactamente la misma longitud, 1.10 A; el ángulo entre cualquier par de enlaces es el tetraédrico de 109.5º. Se necesitan 104 kcal/mol para romper uno de los enlaces del metano.
Así pues, en estas tres últimas secciones hemos visto que con los enlaces covalentes no sólo están asociadas longitudes y energías de disociación de enlaces características, sino también ángulos de enlace característicos; estos enlaces pueden relacionarse sin dificultad con la disposición de los orbitales atómicos incluyendo los híbridos que intervienen en la formación de los enlaces y se derivan por último del principio de exclusión de Pauli y de la tendencia de los electrones no apareados a separarse al máximo. A diferencia del enlace iónico, igualmente fuerte en todas las direcciones, el enlace covalente es dirigido. Podemos comenzar a ver por qué la química del enlace covalente se ocupa tanto de la forma y el tamaño moleculares. Dado que los compuestos del carbono están unidos principalmente por enlaces covalentes, la química orgánica también está muy interesada en la forma y el tamaño moleculares; para ayudarnos en su estudio, utilizaremos con frecuencia modelos moleculares. En la figura 1.11 se observa el metano representado por tres tipos diferentes de modelos: esferas y palillos, armazón
141
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
y semiesferas. Estas últimas están hechas a escala y reflejan con exactitud no solamente los ángulos de enlace, sino también sus longitudes relativas y el tamaño de los átomos.
Parte 12 1.12 Pares de electrones no compartidos.
Dos compuestos conocidos, el amoniaco (NH3) y el agua (H2O), ilustran cómo pares de electrones no compartidos pueden afectar a la estructura molecular.
2p 1s
2s
N
1s
Hibridación sp3 sp3
N
El nitrógeno del amoniaco se asemeja al carbono del metano: tiene hibridación sp3, pero tiene solamente tres electrones no apareados (Tabla 1.1), que ocupan tres de los orbitales sp3. El solapamiento de cada uno de esos orbitales con el orbital s de un átomo de hidrógeno genera amoniaco (Fig. 1.12). El cuarto orbital sp3 del nitrógeno contiene un par de electrones.
Si ha de haber solapamiento máximo, y por tanto fuerza máxima de enlace, los tres núcleos de hidrógeno deben localizarse en tres vértices de un tetraedro, mientras que el cuarto deberá ser ocupado por un par de electrones no compartido. Si se consideran sólo núcleos atómicos, la molécula de amoniaco debería tener forma piramidal, con el nitrógeno en el ápice y los hidrógenos en los vértices de una base triangular. Cada ángulo de enlace debería ser el tetraédrico de 109.5º. Se ha encontrado experimentalmente que el amoniaco tiene la forma piramidal calculada por mecánica cuántica. Los ángulos de enlace son de 107º, ligeramente menores que el valor predicho, por lo que se ha sugerido que el par de electrones no compartido ocupa más espacio que cualquiera de los átomos de hidrógeno, tendiendo así a comprimir ligeramente los ángulos de enlace. La longitud del enlace nitrógeno-hidrógeno es de 1.01 A; se necesitan 103 kcal/mol para romper uno de los enlaces del amoniaco. El orbital sp3 ocupado por el par de electrones no compartido es una región de alta densidad electrónica. Esta región es una fuente de electrones para átomos y moléculas que los buscan, lo que confiere al amoniaco sus propiedades básicas ( Sec. 1.22).
Pueden concebirse dos configuraciones adicionales para el amoniaco, pero ninguna satisface los hechos. (a) Como el nitrógeno está unido a otros tres átomos, podríamos haberlo concebido utilizando orbitales sp2, como hace el boro en el trifluoruro de boro. Pero el amoniaco no es una molécula plana, por lo que debemos rechazar esta posibilidad. El par de electrones no compartido del
142
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
nitrógeno es el responsable de la diferencia entre el NH3 y el BF3; estos electrones necesitan alejarse de los que están en los enlaces carbono-hidrógeno, y la forma tetraédrica lo hace posible. (b) Podríamos haber imaginado al nitrógeno empleando simplemente los orbitales p para el solapamiento, puesto que proporcionarían los tres electrones no apareados necesarios; pero esto generaría ángulo de enlace de 90º - recuérdese que los orbitales p son perpendiculares entre sí -, en contraste con los ángulos observados de 107º. Más importante aún es que el par no compartido se encontraría sumergido en un orbital s, y por los momentos dipolares (Sec. 1.16) se envidia que no es así. Es evidente que la estabilidad ganada por el empleo de los orbitales sp3 fuertemente direccionales en la formación de enlaces compensa sobradamente la promoción de un par no compartido de un orbital s a otro sp3 más energético.
Un hecho adicional acerca del amoniaco, es que la espectroscopia revela que la molécula sufre inversión, es decir, se vuelve de dentro afuera (Fig. 1.13). Entre una disposición piramidal y la otra equivalente hay una barrera energética de sólo 6 kcal/mol, energía que es proporcionada por colisiones moleculares; aun a temperatura ambiente, la fracción de colisiones suficientemente violentas para realizar la tarea es tan grande que la conversión entre disposiciones piramidales sucede con gran velocidad.
H
H
H N
N N
H
H
Fig. 1.13 Inversión del amoniaco.
Compárese el amoniaco con el metano, el cual no sufre inversión. El par no compartido desempeña el papel de un enlace carbono-hidrógeno en la determinación de la forma más estable, la tetraédrica, de la molécula. Pero, a diferencia de un enlace carbono-hidrógeno, el par no compartido no puede mantener una disposición tetraédrica particular: una vez apunta en una dirección, y al instante siguiente, en la opuesta.
143
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
2p
1s
2s
O
1s
Hibridación sp3 sp3
O
Finalmente, consideremos el agua, H2O. La situación es análoga a la del amoniaco, excepto que el oxígeno sólo tiene dos electrones no apareados, por lo que solamente se enlaza con dos átomos de hidrógeno, que ocupan dos vértices de un tetraedro; los otros dos están ocupados por pares de electrones no compartidos (Fig. 1.14).
Según las mediciones, el ángulo H - O - H es de 105º, menor que el ángulo tetraédrico calculado y menor aún que el ángulo en el amoniaco. Aquí tenemos dos voluminosos pares de electrones no compartidos que comprimen los ángulos de enlace. La longitud del enlace oxígeno-hidrógeno es 0.96 A; se necesitan 118 kcal/mol para romper uno de los enlaces del agua. Si examinaremos la figura 1.15 podremos ver la gran semejanza que existe entre la forma de las moléculas de metano, amoniaco y agua, que, debido a la comparación que hemos utilizado, se debe a la semejanza de los enlaces.
Debido a los pares de electrones no compartidos del oxígeno, el agua es básica, aunque no tan marcadamente como el amoniaco (sec. 1.22).
Parte 13 1.13 Fuerzas intramoleculares Debemos recordar que el método específico para la construcción mental de moléculas que estamos aprendiendo a usar es artificial: es un proceso puramente intelectual que comprende solapamientos imaginarios de orbitales imaginarios. Hay otras posibilidades, igualmente artificiales, que emplean modelos mentales o físicos diferentes. Nuestro conjunto de modelos atómicos mentales sólo contendrá tres <> de carbono: tetraédrico (hibridado sp3), trigonal (hibridado sp2) y digonal (hibridado sp). Descubriremos que con este conjunto se puede lograr un trabajo extraordinario en la construcción de cientos de miles de moléculas orgánicas. Sin embargo, cualquiera que sea el modo de establecerla, vemos que la estructura verdadera de una molécula es el resultado neto de una combinación de fuerzas repulsivas y atractivas, que están relacionadas con la carga y el espín electrónicos.
(a) Fuerzas repulsivas. Los electrones tienden a mantenerse separados al máximo, porque tienen la misma carga, y también cuando no están apareados, porque tienen igual espín (principio de exclusión de Pauli). Núcleos atómicos de igual carga también se repelen mutuamente.
144
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
(b) Fuerzas atractivas: Los electrones son atraídos por núcleos atómicos lo mismo que los núcleos por los electrones debido a su carga opuesta, y por ello tiende a ocupar la región entre dos núcleos; el espín opuesto permite (aunque, por sí mismo, no lo estimule realmente) que dos electrones ocupen la misma región.
En el metano, por ejemplo, los cuatro núcleos de hidrógeno se hallan separados al máximo. La distribución de los ocho electrones enlazantes es tal que cada uno ocupa la región deseable cerca de dos núcleos - el orbital de enlace - y, sin embargo, exceptuando a su pareja, se sitúa lo más lejos posible de los demás electrones. Podemos visualizar cada electrón aceptado -quizá renuentemente, debido a sus cargas similares - un compañero de orbital con espín opuesto, pero manteniéndose alejado al máximo del resto de los electrones, y aun, como se mueve dentro de los confines difusos de su orbital, haciendo lo posible para evitar la cercanía de su inquieto compañero.
Parte 14 1.14 Energía de disociación de enlace. Homólisis y heterólisis
Hemos visto que cuando se combinan átomos para formar una molécula se libera energía. Para descomponer una molécula en sus átomos, debe consumirse una cantidad de energía equivalente. La cantidad de energía que se consume o libera cuando se rompe o forma un enlace se conoce como energía de disociación de enlace, D, y es característica del enlace específico. La tabla 1.2 contiene los valores medidos para algunas energías de disociación de enlaces. Puede apreciarse que varía mucho, desde enlaces débiles, como I - I (36 kcal/mol), hasta enlaces muy fuertes, como H - F (136 kcal/mol). Aunque los valores aceptados pueden variar a medida que mejoran los métodos experimentales, hay ciertas tendencias claras.
No debemos confundir la energía de disociación de enlace (D) con otra medida de fuerza de enlace, llamada energía de enlace (E). Si comenzamos con el metano, por ejemplo, y rompemos sucesivamente cuatro enlaces carbono-hidrógeno, encontraremos cuatro energías de disociación de enlace diferentes:
CH4
CH3 + H
D(CH3-H)=104 Kal/mol
CH3
CH2 + H
D(CH2-H)=106
CH2
CH + H
D(CH-H)=106
CH
C
D(C-H)=81
+ H
Por otra parte, la energía de enlace carbono-hidrógeno en el metano, E(C - H), es un solo valor promedio:
145
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
CH4 C + 4H H=397 kcal/mol, E(C-H)=397/4=9 kcal/mol
Encontraremos que, en general, las energías de disociación de enlaces son más útiles para nuestros propósitos.
Hasta el momento, hemos hablado de romper moléculas en dos átomos, o en un átomo y un grupo de ellos, de modo que de los dos electrones que forman el enlace uno se queda con cada fragmento; esta ruptura de enlace se denomina homólisis. También encontraremos reacciones que implican ruptura de enlaces de un tipo diferente, heterólisis, en la que ambos electrones del enlace quedan en un mismo fragmento.
(Estas palabras proceden del griego: homo, el mismo; hetero, diferente, y lisis, pérdida. Para un químico, lisis significa <> , como, por ejemplo, hidrólisis, <>.) Las energías de disociación de enlaces indicadas en la tabla 1.2 corresponden a homólisis, por lo que son energías de disociación homolítica de enlaces. Pero también se han medido para la heterólisis: algunas de estas energías de disociación heterolítica de enlaces se presentan en la tabla 1.3.
Si examinamos estos valores, observaremos que son considerablemente mayores que los de la tabla 1.2. La heterólisis simple de una molécula neutra genera, desde luego, un ión positivo y otro negativo. La separación de estas partículas de carga opuesta consume gran cantidad de energía: alrededor de 100 kcal/mol más que la separación de partículas neutras. Por consiguiente, en la fase gaseosa, la disociación de enlaces generalmente sucede por homólisis, que es la vía más fácil. Pero en un disolvente ionizante (Sec. 6.5) el modo preferido de ruptura es la heterólisis.
Parte 15 1.15 Polaridad de los enlaces
Aparte de las propiedades ya descritas, algunos enlaces covalentes tienen otra: la polaridad. Dos átomos unidos por un enlace covalente comparten electrones, y sus núcleos son mantenidos en la misma nube electrónica. Pero en la mayoría de los casos, estos núcleos no comparten los electrones por igual: la nube es más densa en torno a un átomo que en torno al otro. En consecuencia, un extremo del enlace es relativamente negativo, y el otro, relativamente positivo, es decir, se forma un polo negativo y otro positivo. Se dice que éste es un enlace polar o que tienen polaridad. Podemos indicar la polaridad empleando los símbolos &+ y &-, que indican cargas parciales + y -. (Se dice <> y <>.) Por ejemplo:
Cabe esperar que un enlace covalente sea polar si une átomos que difieren en su tendencia a atraer electrones, es decir, que difieren en electronegatividad. Es más, cuanto mayor sea la diferencia en electronegatividad, más polar será el enlace.
146
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Los elementos más electronegativos son los que se encuentran en el extremo superior derecho del sistema periódico. De los elementos que encontraremos en química orgánica, la electronegatividad más elevada la presenta el flúor, luego el oxígeno, seguido del nitrógeno y el cloro, a continuación el bromo y, finalmente, el carbono. El hidrógeno no difiere mucho en electronegatividad del carbono; no se sabe con certeza si es más electronegativo o menos.
Las polaridades de los enlaces están íntimamente ligadas tanto a las propiedades físicas como a las químicas. La polaridad de los enlaces puede conducir a polaridades de moléculas, afectando considerablemente a los puntos de fusión y ebullición, y a la solubilidad. La polaridad también determina el tipo de reacción que puede suceder en ese enlace, e incluso afecta a la reactividad de los enlaces cercanos.
Parte 16 1.16 Polaridad de las moléculas
Una molécula es polar cuando el centro de la carga negativa no coincide con el de la positiva. Tal molécula constituye un dipolo: dos cargas iguales y opuestas separadas en el espacio. A menudo se usa el símbolo → para caracterizar un dipolo, en el que la flecha apunta desde el extremo positivo hacia el negativo. La molécula tiene un momento dipolar µ, que es igual a la magnitud de la carga, e, multiplicada por la distancia, d, entre los centros de las cargas: µ en unidades
=
e
x
d
en
en
u.e.s.
cm
Debye, D
Es posible medir los momentos dipolares de moléculas por un método que no puede describirse aquí; algunos de los valores obtenidos se dan en la tabla 1.4. Nos interesan los valores de los momentos dipolares como indicaciones de las polaridades relativas de diversas moléculas.
Es un hecho que ciertas moléculas son polares, lo que ha dado origen a la especificación de que ciertos enlaces son polares. Nos hemos ocupado primero de la polaridad de los enlaces simplemente porque es conveniente considerar que la polaridad de una molécula es una combinación de las polaridades de los enlaces individuales. Moléculas como H2, O2, N2, CI2 y Br2 tienen momentos dipolares nulos, o sea, no son polares. Los dos átomos idénticos de cada una de estas moléculas tienen, por supuesto, la misma electronegatividad y comparten electrones por igual; e es cero y, por consiguiente, también lo es µ. Una molécula como el fluoruro de hidrógeno tiene el considerable momento dipoalr de 1.75 D. A pesar de que es una molécula pequeña, el flúor, muy electronegativo, atrae fuertemente los electrones: aunque d es pequeña, e es grande y, en consecuencia, µ lo es también. El metano y el tetracloruro de carbono, CCI4, tiene momentos dipolares nulos. Lógicamente, sería de esperar que los enlaces individuales al menos los del tetracloruro de carbono fuesen polares, pero debido a la disposición tetraédrica, altamente simétrica, sus momentos se anulan (Fig. 1.16). Sin embargo, en el cloruro de metilo, CH3CI, la polaridad del enlace carbono-cloro no se anula, por
147
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
lo que tiene un momento dipolar de 1.86 D. Así, la polaridad de una molécula no sólo depende de la polaridad de sus enlaces individuales, sino también de sus direcciones, es decir, de la forma de la molécula.
El amoniaco tiene un momento dipolar de 1.46 D, el cual podría considerarse como un momento dipolar neto (una suma vectorial) resultante de los momentos de los tres enlaces individuales, y su dirección sería la indicada en el diagrama. El momento dipolar de 1.84 D del agua se podría interpretar de forma similar.
¿Que tipo de momento dipolar cabría esperar para el trifluoruro de nitrógeno, NF3, que es piramidal como el amoniaco? El flúor es el elemento más electronegativo de todos por lo que sin duda debería atraer fuertemente los electrones del nitrógeno; los enlaces N - F deberían ser muy polares y su suma vectorial debería ser grande, mucho mayor que para el amoniaco, con sus enlaces N-H moderadamente polares. ¿Cual es la realidad? El trifluoruro de nitrógeno tiene un momento dipolar de solamente 0.24 D; no es mayor que el del amoniaco, sino mucho menor. ¿Como podemos explicar esto? Hemos olvidado el par de electrones no compartido. En el NF3 (al igual que en el NH3) este par ocupa un orbital sp3 y debe contribuir con un momento dipolar en dirección opuesta al del momento neto de los enlaces N-F (Fig. 1.17); estos momentos opuestos son casi de la misma magnitud, y el resultado es un momento pequeño cuya dirección desconocemos. El momento observado para el amoniaco se debe muy probablemente al par no compartido, aumentado por la suma de los momentos de enlace. De modo análogo, los pares de electrones no compartidos del agua deben contribuir a su momento dipolar y, de hecho, al de cualquier molécula en al que aparecen. Los momentos dipolares pueden dar información valiosa acerca de la estructura de las moléculas. Por ejemplo, pueden descartarse cualquier estructura para el tretracloruro de carbono que dé lugar a una molécula polar basándose tan sólo en el momento dipolar, que respalda así la estructura tetraédrica. (Sin embargo, no la confirma, puesto que se pueden concebir otras estructuras que también darían como resultado una molécula no polar.)
Los momentos dipolares de la mayoría de los compuestos no se han medido nunca; para estas sustancias debemos predecir la polaridad a partir de sus estructuras. Con nuestros conocimientos sobre electronegatividad podemos estimar la polaridad de enlace; con los ángulos de enlace podemos estimar la polaridad de las moléculas, considerando también los pares de electrones no compartidos.
Parte 17 1.17 Estructura y propiedades físicas
Acabamos de estudiar una propiedad física de los compuestos: el momento dipolar. También nos conciernen otras, como los puntos de fusión y ebullición, y la solubilidad en un disolvente determinado. Las propiedades físicas de un compuesto nuevo dan indicaciones valiosas sobre su estructura, y a la inversa, la estructura de una sustancia a menudo nos dice qué propiedades físicas esperar de ella.
148
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Al intentar la síntesis de un compuesto nuevo, por ejemplo, debemos planificar una serie de reacciones para convertir una sustancia que tenemos en la que queremos; además, debemos desarrollar un método para separar nuestro producto de todos los demás compuestos que forman parte de la mezcla reaccionante: reactivos no consumidos, disolvente, catalizador, subproductos. Generalmente, el aislamiento y la purificación del producto consumen más tiempo y esfuerzo que la propia preparación. La posibilidad de aislar el producto por destilación depende de su punto de ebullición y de los puntos de ebullición de los contaminantes; su aislamiento por recristalización depende de su solubilidad en varios disolventes y de la de los contaminantes. El éxito en laboratorio a menudo depende de una adecuada predicción de propiedades físicas a partir de la estructura. Los compuestos orgánicos son sustancias reales, no solamente colecciones de letras escritas sobre un trozo de papel, por lo que debemos aprender a manejarlas.
Hemos visto que hay dos tipos extremos de enlaces químicos, generados por transferencia de electrones, y covalentes, formado por electrones compartido. Las propiedades físicas de un compuesto dependen en gran medida del tipo de enlaces que mantienen unidos los átomos de una molécula.
Parte 18 1.18 Punto de fusión
En un sólido cristalino las partículas que actúan como unidades estructurales iones o moléculas se hallan ordenadas de una forma muy regular y simétrica; hay un modelo geométrico que se repite en el cristal. Fusión es el cambio desde una disposición muy ordenada de partículas en el retículo cristalino al más desordenado que caracteriza a los líquidos (véanse Figs. 1.18 y 1.19). La fusión se produce cuando se alcanza una temperatura a la cual la energía térmica de las partículas es suficientemente grande como para vencer las fuerzas intracristalinas que las mantienen en posición. Un compuesto iónico forma cristales en los que las unidades estructurales son iones. El cloruro de sodio sólido, por ejemplo, está constituido por iones sodio positivos y iones cloruro negativos que se alternan de un modo muy regular. Cada ión positivo está rodeado equidistantemente por seis iones negativos; uno a cada lado, uno arriba y otro abajo, uno al frente y otro detrás. A su vez, cada ión negativo está rodeado de forma análoga por seis positivos. No hay nada que podamos llamar molécula de cloruro de sodio; un ión sodio determinado no <> a ningún ión cloruro en particular; seis cloruros lo atraen por igual. El cristal es una estructura muy fuerte y rígida, pues las fuerzas electrostáticas que mantienen a cada ión en posición son poderosas. Estas poderosas fuerzas interiónicas sólo se superan a una temperatura muy elevada: el cloruro de sodio tiene un punto de fusión de 801ºC.
Los cristales de otros compuestos iónicos son semejantes a los del cloruro de sodio, en el sentido de que tienen un retículo iónico, aunque la disposición geométrica exacta puede ser diferente. En consecuencia, éstos también tienen puntos de fusión elevados. Muchas moléculas contienen tanto enlaces iónicos como covalentes: el nitrato de potasio, KNO3, por ejemplo, está formado por iones K+ y NO3-; los átomos de oxígeno y nitrógeno del ión NO3- se mantienen unidos entre sí por enlaces covalentes. Las propiedades físicas de compuestos como éste están determinadas en gran medida por los enlaces iónicos; el nitrato de potasio tiene aproximadamente el mismo tip de propiedades físicas que el cloruro de sodio.
149
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Un compuesto no iónico, aquel cuyos átomos se mantienen unidos entre sí por enlaces covalentes, forma cristales en los que las unidades estructurales son moléculas. Para que ocurra la fusión, deben ser superadas que mantienen juntas a estas moléculas; en general, estas fuerzas intermoleculares son muy débiles, comparadas con las fuerzas que unen los iones. Para fundir el cloruro de sodio debemos suministrar energía suficiente para romper los enlaces iónicos entre el Na+ y el CI-; para fundir el metano, CH4, no necesitamos suministar energía suficiente para romper los enlaces covalentes entre el carbono y el hidrógeno, basta con proporcionar energía suficiente para separar mole´culas de CH4 entre sí. Al contrario que el cloruro de sodio, el metano se funde a -183ºC.
Parte 19 1.19 Fuerzas intermoleculares
¿Qué tipo de fuerzas mantienen juntas las moléculas neutras? Al igual que las interiónicas, estas fuerzas parecen ser de naturaleza electrostática, en las que cargas positivas atraen cargas negativas. Hay dos clases de fuerzas intermoleculares: interaccione dipolo-dipolo y fuerzas de Van der Waals. La interacción dipolo-dipolo es la atracción que ejerce el extremo positivo de una molécula polar por el negativo de otras semejante. En el cloruro de hidrógeno, por ejemplo, el hidrógeno relativamente positivo de una molécula es atraído por el cloro relativamente negativo de otra:
Como resultado de esta interacción dipolo-dipolo, las moléculas polares por lo general se unen entre sí más firmemente que las no polares de peso molecular comparable; esta diferencia entre la intensidad de las fuerzas intermoleculares se refleja en las propiedades físicas de los compuestos implicados. Un tipo de atracción dipolo-dipolo particularmente fuerte es el enlace por puente de hidrógeno, en el cual un átomo de hidrógeno sirve como puente entre dos átomos electronegativos, sujetando a uno con un enlace covalente, y al otro, con fuerzas puramente electrostáticas. Cuando el hidrógeno se encuentra unido a un átomo muy electronegativo, la nube electrónica se distorsiona considerablemente hacia éste, exponiendo el núcleo del hidrógeno. La fuerte carga positiva del escasamente protegido núcleo del hidrógeno es atraída por la carga negativa del átomo electronegativo de una segunda molécula. Esta atracción tiene una fuerza de unas 5 kcal/mol, por lo que es mucho más débil que el enlace covalente unas 50-100 kcal/mol- que lo mantiene unido al primer átomo electronegativo. Es, sin embargo, bastante más fuerte que otras atracciones dipolodipolo. En las fórmulas, Los enlaces por puentes de hidrógeno se indican generalmente por una línea de puntos:
H H F H F
H O H O H
H
H
H N H N H
150
H
H
H
H N H O H
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Para que un enlace por puente de hidrógeno sea importante, ambos átomos electronegativos deben ser del grupo F, O, N. Sólo es suficientemente positivo un hidrógeno enlazado a uno de estos elementos y sólo estos tres elementos deben su efectividad especial a la carga negativa concentrada sobre sus átomos pequeños. Deben existir fuerzas entre las moléculas de un compuesto no polar, puesto que aun estas sustancias se pueden solidificar. Tales atracciones se conocen como fuerzas de Van der Waals. Su existencia está explicada por la mecánica cuántica y podemos describir su origen aproximadamente como sigue: la distribución promedio de carga en torno a una molécula de metano, por ejemplo, es simétrica, por lo que no hay un momento dipolar neto. Sin embargo, los electrones se desplazan, de modo que un instante cualquiera esa distribución probablemente se distorsionará y habrá un pequeño dipolo. Este dipolo momentáneo afectará a la distribución de electrones en otra molécula cercana de metano; el extremo negativo un dipolo de orientación opuesta en la molécula vecina:
A pesar de que los dipolos momentáneos y los inducidos cambian constantemente, resulta una atracción neta entre ambas moléculas. Estas fuerzas de Van der Waals son de muy corto alcance: sólo actúan entre las partes de moléculas diferentes que están en contacto íntimo, es decir, entre sus superficies. Veremos que la reacción enttre la magnitud de las fuerzas de Van der Waals y el área de las superficies moleculares (Sec. 3.12) nos ayudará a comprender el efecto del tamaño y las formas moleculares sobre las propiedades físicas.
Cada átomo tiene con respecto a otros con los que no esté unido - ya sea en otra molécula o en otra parte de la misma - un <> efectivo, conocido como su radio de Van der Waals. A medida que se acercan dos átomos no alcanzados, aumenta la atracción entre ellos, que llega al máximo justamente cuando se tocan, es decir, cuando la distancia entre los núcleos es igual a la suma de los radios de Van der Waals. Si son forzados a juntarse aún más, la atracción es rápidamente reemplazada por repulsión de Van der Waals, de modo que los átomos no alcanzados aceptan juntarse, pero resisten vigorosamente la sobrecarga. Veremos que las fuerzas de Van der Waals, tanto atractivas como repulsivas, son importantes para comprender la estructura molecular.
En el capítulo 6 analizaremos con detalle todas estas fuerzas intermoleculares, este tipo de enlaces secundarios.
Parte 20 1.20 Punto de ebullición.
Aunque en un líquido las partículas tienen un arreglo menos regular y gozan de mayor libertad de movimiento que en un cristal, cada una de ellas es atraída por muchas otras. La ebullición implica la separación de moléculas individuales, o pares de iones con carga opuesta, del seno del líquido (Véanse Figs. 1.20 y 1.21). Esto sucede cuando se alcanza una temperatura suficiente para que la energía térmica delas partículas supere las fuerzas de cohesión que las mantienen en el líquido.
En el estado líquido, la unidad de un compuesto iónico es de nuevo el ión. Cada ión es retenido firmemente por varios otros de carga opuesta. Una vez más, no hay nada que podamos
151
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
denominar realmente molécula. Se necesita mucha energía para que un par de iones de carga opuesta pueda abandonar el líquido; la ebullición sólo se produce a temperatura muy alta. El punto de ebullición del cloruro de sodio, por ejemplo, es de 1413ºC. En el estado gaseoso tenemos un par iónico, que puede considerarse como una molécula de cloruro de sodio. En el estado líquido, la unidad de un compuesto no iónico es de nuevo la molécula. Aquí, las débiles fuerzas intermoleculares interaccione dipolo-dipolo y fuerzas de Van der Waals son más fáciles de vencer que las considerables fuerzas Inter.-iónicas de los compuestos iónicos, por lo que la ebullición se produce a temperatura mucho más bajas. El metano no polar hierve a 161.5ºC, y el cloruro de hidrógeno polar a sólo -85ºC.
Los líquidos cuyas moléculas se mantienen unidas por puentes de hidrógeno se denominan líquidos asociados. La ruptura de estos puentes requiere una energía considerable, por lo que un líquido asociado tiene un punto de ebullición anormalmente elevado para un compuesto de su peso molecular y momento dipolar. El fluoruro de hidrógeno, por ejemplo, hierve a una temperatura 100 grados más alta que el cloruro de hidrógeno, más pesado, pero no asociados; el agua hierve a una temperatura 160 grados más alta que el sulfuro de hidrógeno. También hay compuestos orgánicos que contienen oxígeno o nitrógeno con puentes de hidrógeno Consideremos el metano, por ejemplo, y reemplacemos uno de sus hidrógenos por un grupo hidroxilo, -OH. El compuesto resultante, CH3OH, es metanol, el miembro más pequeño de la familia de los alcoholes. Estructuralmente, no sólo se parece al metano, sino también al agua:
H
H
H C H
H O H
H
H C O H H
Metano
Agua
Metanol
Al igual que el agua, se trata de un líquido asociado, cuyo punto de ebullición es <> elevado para un compuesto de su tamaño y polaridad.
CH3 CH3
O H O H
Cuanto más grandes son las moléculas, más fuertes son las fuerzas de Van der Waals. Se conservan otras propiedades - polaridad, puentes de hidrógeno -, pero el punto de ebullición aumenta con el tamaño molecular. Los puntos de ebullición de sustancias orgánicas son bastante más elevados que el de la pequeña molécula no polar del metano, pero rara vez encontramos puntos de ebullición por encima de 350ºC; a temperaturas más elevadas, comienzan a romperse los enlaces covalentes dentro de las moléculas, con lo que compiten la descomposición y la ebullición. Para bajar el punto de ebullición y así minimizar la descomposición, a menudo se realiza la destilación de compuestos orgánicos a presión reducida.
152
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
Parte 21
2012
1.21 Solubilidad
Cuando se disuelve un sólido o un líquido, las unidades estructurales iones o moléculas se separan unas de otras y el espacio entre ellas pasa a ser ocupado por moléculas de disolvente. Durante la disolución, igual que en la fusión y la ebullición, debe suministrarse energía para vencer las fuerzas Inter.-iónicas o intermoleculares. ¿De dónde proviene esta energía? La que se requiere para romper los enlaces entre las partículas del soluto es aportada por la formación de enlaces entre partículas de soluto y moléculas de disolvente: las fuerzas atractivas anteriores son reemplazadas por otras nuevas. Ahora bien, ¿cómo son estos enlaces que se establecen entre el soluto y el disolvente? Consideremos primero el caso de los solutos iónicos. Se necesita una cantidad considerable de energía para vencer las poderosas fuerzas electrostáticas que sostienen un retículo iónico. Sólo el agua y otros disolventes muy polares pueden disolver apreciablemente compuestos iónicos. ¿Qué tipo de enlaces se forman entre iónes y un disolvente polar? Por definición, una molécula polar tiene un extremo positivo y otro negativo; por tanto, hay atracción electrostática entre un ión positivo y el extremo negativo de una molécula de disolvente, y entre un ión negativo y la parte positiva de la molécula de disolvente. Estas atracciones se llaman enlaces ión-dipolo. Cada uno de estos enlaces ión-dipolo es relativamente débil, pero en conjunto aportan suficiente energía para vencer las fuerzas interiónicas del cristal. En la solución, cada ión está rodeado por muchas moléculas de disolvente, por lo que se dice que está solvatado; si el disolvente es agua, se dice que el ión está hidratado. En solución, tanto en estado sólido como líquido, la unidad de una sustancia como el cloruro de sodio en el ión, aunque en este caso es un ión solvatado (véase Figura 1.22).
+ _
+
_
_ + _
_
+ +
_
+ _ +
_ +
+ _
_ + +
_
+ + _
_
Para que un disolvente pueda disolver compuestos iónicos, debe tener también una constante dieléctrica elevada, o sea, debe poseer propiedades altamente aislantes para disminuir la atracción entre iones de carga opuesta cuando están solvatados. El agua debe sus relevantes propiedades como disolvente de sustancias iónicas, no solamente a su polaridad y asu elevada constante dieléctrica, sino también a otro factor: contiene el grupo -OH, por lo que puede formar puentes de hidrógeno. El agua solvata tanto cationes como aniones; los cationes en su polo negativo (básicamente, sus electrones no compartidos), y los aniones, por medio de puentes de hidrógeno. Pasemos ahora a la disolución de solutos no iónicos. Las características de la solubilidad de compuestos no iónicos están determinadas principalmente por su polaridad. Las sustancias no polares o débilmente polares se disuelven en disolventes no polares o ligeramente polares; los compuestos muy polares lo hacen en disolventes no polares o
153
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
ligeramente polares; los compuestos muy polares lo hacen en disolventes de alta polaridad. <>, es una regla empírica muy útil. El metano es soluble en tetracloruro de carbono, porque las fuerzas que mantienen unidas las moléculas de metano y las de tetracloruro de carbono - las interacciones de Van der Waals - son reemplazadas por otras muy similares, las que unen moléculas de tetracloruro de carbono a moléculas de metano. Ni el metano ni el tetracloruro de carbono son apreciablemente solubles en agua, cuyas moléculas, muy polares, se atraen mutuamente por interacciones dipolo-dipolo muy intensas: los puentes de hidrógeno; por otra parte, sólo podría haber fuerzas atractivas muy débiles entre las moléculas de agua y las no polares de metano o de tetracloruro de carbono. Por el contrario, el metanol, CH3OH, compuesto orgánico muy polar, es totalmente soluble en agua. Los puentes de hidrógeno entre las moléculas de agua y las de metanol pueden reemplazar fácilmente a los puentes de hidrógeno similares formados entre diferentes moléculas de metanol y diferentes moléculas de agua. La comprensión de la naturaleza de las soluciones es fundamental para entender la química orgánica. La mayoría de las reacciones orgánicas se efectúan en solución, y es cada vez más evidente que el disolvente hace mucho más que simplemente unir moléculas diferentes para que puedan reaccionar entre sí. El disolvente está implicado en las reacciones que tienen lugar en él; cuánto y en qué forma está implicado es algo que empieza a saberse ahora. En el capítulo 6, cuando estudiamos un poco más las reacciones orgánicas y cómo se realizan, volveremos sobre este tema - que apenas tocamos aquí y examinaremos en detalle la función del disolvente.
Parte 22 1.22 Acidos y bases
Al pasar ahora de las propiedades físicas a la químicas, revisemos brevemente un tema conocido que es fundamental para la comprensión de la química orgánica: acidez y basicidad. Los términos ácido y base se han definido de varias formas, correspondiendo cada definición a un modo particular de considerar las propiedades de acidez y basicidad. Nos será útil observar ácidos y bases desde dos de estos puntos de vista; el que elijamos dependerá del problema que se tenga a mano. De acuerdo con la definición de Lowry-Bronsted, un ácido es una sustancia que entrega un protón, y una base, una que lo acepta. Al disolver ácido sulfúrico en agua, el ácido H2SO4 entrega un protón (núcleo de hidrógeno) a la base H2O para formar el nuevo ácido H3O+ y la nueva base HSO4-. Cuando el cloruro de hidrógeno reacciona con el amoniaco, el ácido HCI entrega un protón a la base NH3 para formar el nuevo ácido NH4+ y a la nueva base CI-.
154
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
H2SO4 + Acido más fuerte HCI Acido más fuerte
+
H2O
Base más fuerte NH3 Base más fuerte
H3O+
2012
HSO4-
+
Acido más débil
Base más débil
NH4+ +
CIBase más débil
Acido más débil
Según la definición de Lowry-Bronsted, la fuerza de un ácido depende de su tendencia a entregar un protón, a la de una base, de su tendencia a aceptarlo. El ácido sulfúrico y el cloruro de hidrógeno son ácidos fuertes, puesto que tiende a entregar un rpotón con mucha facilidad; a la inversa, el ión bisulfato, HSO4-, y el ión cloruro deben ser necesariamente bases débiles, puesto que demuestran poca tendencia a adherirse a protones. En las dos reacciones que acabamos de describir, el equilibrio favorece la formación del ácido y la base más débiles. Si se mezclan H2SO4 y NaOH acuosos, el ácido H3O+ (ión hidronio) entrega un protón a la base OH- para formar el nuevo ácido H2O y la nueva base H2O. Al mezclar NH4CI y NaOH acuosos, el ácido NH4+ (ión amonio) entrega un protón a la base OH- para formar
H3O+ Acido más fuerte
+
OH-
H2O
Base más fuerte
Acido más débil
NH4+ + OHAcido más Base más fuerte fuerte
H2O
+
H2O Base más débil
+
NH3
Acido más débil
Base más débil
el nuevo ácido H2O y la nueva base NH3. En ambos casos, la base fuerte, el ión hidróxido, ha aceptado un protón para formar el ácido débil H2O. Si disponemos estos ácidos en el orden indicado, debemos disponer necesariamente las bases (conjugadas) correspondientes en orden opuesto. Fuerza ácida
H2SO4 > H3O+ > NH4+ > H2O HCI
Fuerza básica
HSO4- < H2O < NH3 < OHCI-
Al igual que el agua, muchos compuestos orgánicos que contienen oxígeno pueden actuar como bases y aceptar protones; el alcohol etílico y el dietil éter, por ejemplo, forman los iones oxonio I y II. Por conveniencia, a menudo nos referimos a una estructura del tipo I como un alcohol protonado, y a una del tipo II, como un éter protonado.
155
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
C2H5OH + H2SO4 Alcohol etílico
C2H5OH H
+
2012
HSO4-
I Un ion oxonio Alcohol etílico protonado
(C2H5)2O
+
(C2H5)2O H + CI-
HCI
Dietil éter
II Un ion oxonio Dietil éter protonado
Según la definición de Lewis, una base es una sustancia que puede suministrar un par de electrones para formar un enlace covalente, y un ácido, una que puede recibir un par de electrones para formar un enlace covalente. De este modo, un ácido es un aceptor de pares de electrones, y una base, un donante de pares de electrones. Este es el más fundamental de los conceptos ácidobase, y también el más general, ya que incluye todos los demás conceptos. Un protón es un ácido, pues es deficiente en electrones y necesita un par de ellos para completar su capa de valencia. El ión hidróxido, el amoniaco y el agua son bases, pues tienen pares de electrones disponibles que pueden compartir. En el trifluoruro de boro, BF3, el boro sólo tiene seis electrones en su capa externa, por lo que tiende a aceptar otro par para completar su octeno. El trifluoruro de boro es un ácido, y se combina como bases como el amoniaco o el dietil éter.
F
F F
B + :NH3
F Acido
B :NH3
F
F Base
F F
F
B + O(C2H5)2 F Acido
F
B O(C2H5)2 F
Base
El cloruro de aluminio, AICI3, es un ácido por la misma razón. El cloruro estánnico, SnCI4, tiene un octeto completo en el estaño, pero puede aceptar pares de electrones adicionales (por ejemplo, en SnCI62-), por lo que también es un ácido.
156
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Indicamos una carga formal negativa sobre el boro en estas fórmulas porque tiene un electrón más uno del par compartido con oxígeno o nitrógeno de lo que puede neutralizar por medio de su carga nuclear; correspondientemente, se indica el nitrógeno u oxígeno con una carga formal positiva.
Encontraremos que el concepto de Lewis de ácidos y bases es fundamental para la comprensión de la química orgánica. Para dejar bien claro que hablemos de este tipo de ácido o base, emplearemos a menudo la expresión ácido de Lewis (o base de Lewis) o, a veces, ácido (o base) en el sentido de Lewis. Al igual que las físicas, las propiedades químicas dependen de la estructura molecular. ¿Cuáles son las características de la estructura de una molécula que nos permite diagnosticar su carácter ácido o básico? Podemos intentar contestar a esta pregunta ahora de una forma general, aunque más adelante volveremos a ella muchas veces. Para ser ácida en el sentido de Lowry-Bronsted, una molécula debe contener, desde luego, hidrógeno. En gran medida, el grado de acidez lo determina la clase de átomo unido al hidrógeno y, en particular, la capacidad de ese átomo para acomodar el par de electornes que el ión hidrógeno saliente deja atrás. Esta capacidad parece depender de varios factores, los que incluyen (a) la electronegatividad del átomo, y (b) su tamaño. Así, dentro de un periodo determinado de la tabla periódica, la acidez aumenta con el aumento de la electronegatividad:
Acidez
H-CH3 < H-NH2 < H-OH < H-F H-SH < H-CI
Y dentro de un grupo determinado, la acidez aumenta con el tamaño:
Acidez
H-F < H-CI < H-Br < H-I H-OH < H-SH< H-SeH
Entre los compuestos orgánicos, puede esperarse que tengan una acidez de Lowry-Bronsted apreciable aquellos que contienen los grupos O - H, N - H y S - H. Para que una molécula sea ácida en el sentido de Lewis, debe ser deficiente en electrones; en particular, buscaríamos en ella un átomo con sólo un sexteto electrónico.
Para ser básica, tanto en el sentido de Lowry-Bronsted como en el de Lewis, una molécula debe disponer de un par de electrones para compartir. Su disponibilidad está determinada en gran medida por el átomo que los contiene: su electronegatividad, su tamaño y su carga. La función de estos factores es aquí necesariamente opuesta a lo que hemos observado para la acidez: cuanto mejor acomode el átomo al apr de electrones, menos disponibles estará éste par ser compartido.
Parte 23 1.23 Isomería
Antes de comenzar el estudio sistemático de las distintas clases de compuestos orgánicos, veamos un concepto adicional que ilustra particularmente bien la importancia fundamental de la estructura molecular: el concepto de isomería.
157
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El compuesto alcohol etílico es un líquido que hierve a 78ºC. Su análisis (por métodos que se describen más adelante, sec. 2.27) demuestra que contiene carbono, hidrógeno y oxígeno en la proporción 2C:6H:IO. Su espectro de masas indica que su peso molecular es 46, por lo que su fórmula molecular debe ser C2H6O. Es un conpuesto bastante reactivo; por ejemplo, si se deja caer un trozo de sodio metálico en un tubo de ensayo que contiene alcohol etílico, se produce un burbujeo vigoroso y se consume el sodio; se desprende hidrógeno gaseoso y queda un compuesto de fórmula C2H5ONa. También reacciona con ácido yodhídrico para formar agua y un compuesto de fórmula C2H5I. El compuesto dimetil éter es un gas con punto de ebullición de -24ºC. Es, evidentemente, una sustancia diferente del alcohol etílico: no sólo difiere en sus propiedades físicas, sino también en las químicas. No reacciona con el sodio metálico. Como el alcohol etílico, reacciona con el ácido yodhídrico, pero da un compuesto de fórmula CH3I. El análisis del dimetil éter indica que contiene carbono, hidrógeno y oxígeno en la misma proporción que el alcohol etílico, 2C:6H:IO; tiene el mismo peso molecular, 46. Concluimos que tiene la misma fórmula molecular, C2H6O. Tenemos aquí dos sustancias, alcohol etílico y dimetil éter, que tienen la misma fórmula molecular, C2H6O, y, sin embargo, son dos compuestos claramente diferentes. ¿Cómo podemos explicar su existencia? La respuesta es que difieren en su estructura molecular. El alcohol etílico tiene la estructura representada por I y el dimetil éter la representada por II. Veremos que las diferencias en propiedades físicas y químicas de estos dos compuestos pueden explicarse fácilmente a partir de sus diferencias estruturales.
Los compuestos diferentes que tienen la misma fórmula molecular se llaman isómeros ( del griego: isos, igual, y meros, parte). Contienen igual número de las mismas clases de átomos, pero éstos están unidos entre sí de manera distinta. Los isómeros son compuestos diferentes, porque tienen estructuras moleculares distintas. Esta diferencia en estructura molecular genera propiedades distintas; son estas diferencias las que nos revelan que estamos tratando compuestos diferentes. En algunos casos, la diferencia estructural y por consiguiente las propiedades distintas es tan marcada que los isómeros se clasifican en familias químicas diferentes como, por ejemplo, alcohol etílico y dimetil éter. En otros casos, la diferencia estructural es tan sutil que sólo puede describirse en función de modelos tridimensionales. Entre estos dos extremos hay otros tipos de isomería
Termodinámica Primera ley Termodinamica Permítase que un sistema cambie de un estado inicial de equilibrio , a un estado final de equilibrio , en un camino determinado, siendo el calor absorbido por el sistema y el trabajo hecho por el sistema. Después calculamos el valor de
. A continuación cambiamos
el sistema desde el mismo estado hasta el estado final , pero en esta ocasión por u n camino diferente. Lo hacemos esto una y otra vez, usando diferentes caminos en cada caso. Encontramos que en todos los intentos es la misma. Esto es, aunque y separadamente dependen del camino tomado, del estado
al estado
no depende, en lo absoluto, de cómo pasamos el sistema
, sino solo de los estados inicial y final (de equilibrio).
Del estudio de la mecánica recordará, que cuando un objeto se mueve de un punto inicial a otro final , en un campo gravitacional en ausencia de fricción, el trabajo hecho depende solo de las posiciones de los puntos y no, en absoluto, de la trayectoria por la que el cuerpo se mueve. De esto concluimos que hay una energía potencial, función de las coordenadas espaciales del cuerpo,
158
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
cuyo valor final menos su valor inicial, es igual al trabajo hecho al desplazar el cuerpo. Ahora, en la termodinámica, encontramos experimentalmente, que cuando en un sistema ha cambiado su estado al , la cantidad dependen solo de las coordenadas inicial y final y no, en absoluto, del camino tomado entre estos puntos extremos. Concluimos que hay una función de las coordenadas termodinámicas, cuyo valor final, menos su valor inicial es igual al cambio en el proceso. A esta función le llamamos función de la energía interna. Representemos la función de la energía interna por la letra . Entonces la energía interna del sistema en el estado , , es solo el cambio de energía interna del sistema, y esta cantidad tiene un valor determinado independientemente de la forma en que el sistema pasa del estado estado f: Tenemos entonces que:
al
Como sucede para la energía potencial, también para que la energía interna, lo que importa es su cambio. Si se escoge un valor arbitrario para la energía interna en un sistema patrón de referencia, su valor en cualquier otro estado puede recibir un valor determinado. Esta ecuación se conoce como la primera ley de la termodinámica, al aplicarla debemos recordar que se considera positiva cuando el calor entra al sistema y que será positivo cuando el trabajo lo hace el sistema. A la función interna , se puede ver como muy abstracta en este momento. En realidad, la termodinámica clásica no ofrece una explicación para ella, además que es una función de estado que cambia en una forma predecible. ( Por función del estado, queremos decir, que exactamente, que su valor depende solo del estado físico del material: su constitución, presión, temperatura y volumen.) La primera ley de la termodinámica, se convierte entonces en un enunciado de la ley de la conservación de la energía para los sistemas termodinámicos. La energía total de un sistema de partículas , cambia en una cantidad exactamente igual a la cantidad que se le agrega al sistema, menos la cantidad que se le quita.
Podrá parecer extraño que consideremos que sea positiva cuando el calor entra al sistema y que sea positivo cuando la energía sale del sistema como trabajo. Se llegó a esta convención, porque fue el estudio de las máquinas térmicas lo que provocó inicialmente el estudio de la termodinámica. Simplemente es una buena forma económica tratar de obtener el máximo trabajo con una maquina de este tipo, y minimizar el calor que debe proporcionársele a un costo importante. Estas naturalmente se convierten en cantidades de interés. Si nuestro sistema sólo sufre un cambio infinitesimal en su estado, se absorbe nada más una cantidad infinitesimal de calor y se hace solo una cantidad infinitesimal de trabajo , de tal manera que el cambio de energía interna también es infinitesimal. Aunque son diferencias verdaderas, podemos escribir la primera ley diferencial en la forma: .
159
y
no
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Podemos expresar la primera ley en palabras diciendo: Todo sistema termodinámico en un estado de equilibrio, tiene una variable de estado llamada energía interna cuyo cambio en un proceso diferencial está dado por la ecuación antes escrita. La primera ley de la termodinámica se aplica a todo proceso de la naturaleza que parte de un estado de equilibrio y termina en otro. Decimos que si un sistema esta en estado de equilibrio cuando podemos describirlo por medio de un grupo apropiado de parámetros constantes del sistema como presión ,el volumen, temperatura, campo magnético y otros la primera ley sigue verificándose si los estados por los que pasa el sistema de un estado inicial (equilibrio), a su estado final (equilibrio), no son ellos mismos estados de equilibrio. Por ejemplo podemos aplicar la ley de la termodinámica a la explosión de un cohete en un tambor de acero cerrado. Hay algunas preguntas importantes que no puede decir la primera ley. Por ejemplo, aunque nos dice que la energía se conserva en todos los procesos, no nos dice si un proceso en particular puede ocurrir realmente. Esta información nos la da una generalización enteramente diferente, llamada segunda ley de la termodinámica, y gran parte de los temas de la termodinámica dependen de la segunda ley. Segunda ley de la termodinámica Las primeras máquinas térmicas construidas, fueron dispositivos muy eficientes. Solo una pequeña fracción del calor absorbido de la fuente de la alta temperatura se podía convertir en trabajo útil. Aun al progresar los diseños de la ingeniería, una fracción apreciable del calor absorbido se sigue descargando en el escape de una máquina a baja temperatura, sin que pueda convertirse en energía mecánica. Sigue siendo una esperanza diseñar una maquina que pueda tomar calor de un depósito abundante, como el océano y convertirlo íntegramente en un trabajo útil. Entonces no seria necesario contar con una fuente de calor una temperatura más alta que el medio ambiente quemando combustibles. De la misma manera, podría esperarse, que se diseñara un refrigerador que simplemente transporte calor, desde un cuerpo frío a un cuerpo caliente, sin que tenga que gastarse trabajo exterior. Ninguna de estas aspiraciones ambiciosas violan la primera ley de la termodinámica. La máquina térmica sólo podría convertir energía calorífica completamente en energía mecánica, conservándose la energía total del proceso. En el refrigerador simplemente se transmitiría la energía calorifica de un cuerpo frío a un cuerpo caliente, sin que se perdiera la energía en el proceso. Nunca se ha logrado ninguna de estas aspiraciones y hay razones para que se crea que nunca se alcanzarán. La segunda ley de la termodinámica, que es una generalización de la experiencia, es una exposición cuyos artificios de aplicación no existen. Se tienen muchos enunciados de la segunda ley, cada uno de los cuales hace destacar un aspecto de ella, pero se puede demostrar que son equivalentes entre sí. Clausius la enuncio como sigue: No es posible para una máquina cíclica llevar continuamente calor de un cuerpo a otro que esté a temperatura más alta, sin que al mismo tiempo se produzca otro efecto (de compensación). Este enunciado desecha la posibilidad de nuestro ambicioso refrigerador, ya que éste implica que para transmitir calor continuamente de un objeto frío a un objeto caliente, es necesario proporcionar trabajo de un agente exterior. Por nuestra experiencia sabemos que cuando dos cuerpos se encuentran en contacto fluye calor del cuerpo caliente al cuerpo frío. En este caso, la segunda ley elimina la posibilidad de que la energía fluya del cuerpo frío al cuerpo caliente y así determina la dirección de la transmisión del calor. La dirección se puede invertir solamente por medio de gasto de un trabajo. Kelvin (con Planck) enuncio la segunda ley con palabras equivalentes a las siguientes: es completamente imposible realizar una transformación cuyo único resultado final sea el de cambiar en trabajo el calor extraído de una fuente que se encuentre a la misma temperatura. Este enunciado elimina nuestras ambiciones de la máquina térmica, ya que implica que no podemos
160
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
producir trabajo mecánico sacando calor de un solo depósito, sin devolver ninguna cantidad de calor a un depósito que esté a una temperatura más baja. Para demostrar que los dos enunciados son equivalentes, necesitamos demostrar que si cualquiera de los enunciados es falso, el otro también debe serlo. Supóngase que es falso el enunciado de Clausius, de tal manera que se pudieran tener un refrigerador que opere sin que se consuma el trabajo. Podemos usar una máquina ordinaria para extraer calor de un cuerpo caliente, con el objeto de hacer trabajo y devolver parte del calor a un cuerpo frío. Pero conectando nuestro refrigerador “perfecto” al sistema, este calor se regresaría al cuerpo caliente, sin gasto de trabajo, quedando así utilizable de nuevo para su uso en una máquina térmica. De aquí que la combinación de una maquina ordinaria y el refrigerador “perfecto” formará una máquina térmica que infringe el enunciado de Kelvin-Planck. O podemos invertir el argumento. Si el enunciado Kelvin-Planck fuera incorrecto, podríamos tener una máquina térmica que sencillamente tome calor de una fuente y lo convierta por completo en trabajo. Conectando esta máquina térmica “perfecta” a un refrigerador ordinario, podemos extraer calor de un cuerpo ordinario, podemos extraer calor de un cuerpo caliente, convertirlo completamente en trabajo, usar este trabajo para mover un refrigerador ordinario, extraer calor de un cuerpo frío, y entregarlo con el trabajo convertido en calor por el refrigerador, al cuerpo caliente. El resultado neto es una transmisión de calor desde un cuerpo frío, a un cuerpo caliente, sin gastar trabajo, lo infringe el enunciado de Clausius. La segunda ley nos dice que muchos procesos son irreversibles. Por ejemplo, el enunciado de Clausius específicamente elimina una inversión simple del proceso de transmisión de calor de un cuerpo caliente, a un cuerpo frío. Algunos procesos, no sólo no pueden regresarse por sí mismos, sino que tampoco ninguna combinación de procesos pueden anular el efecto de un proceso irreversible, sin provocar otro cambio correspondiente en otra parte. Tercera ley de la termodinámica En el análisis de muchas reacciones químicas es necesario fijar un estado de referencia para la entropia. Este siempre puede escogerse algún nivel arbitrario de referencia cuando solo se involucra un componente; para las tablas de vapor convencionales se ha escogido 320F. Sobre la base de las observaciones hechas por Nernst y por otros, Planck estableció la tercera ley de la termodinámica en 1912, así: la entropia de todos los sólidos cristalinos perfectos es cero a la temperatura de cero absoluto. Un cristal “perfecto” es aquel que esta en equilibrio termodinámica. En consecuencia, comúnmente se establece la tercera ley en forma más general, como: La entropia de cualquier sustancia pura en equilibrio termodinamico tiende a cero a medida que la temperatura tiende a cero. La importancia de la tercera ley es evidente. Suministra una base para el calculo de las entropías absolutas de las sustancias, las cuales pueden utilizarse en las ecuaciones apropiadas para determinar la dirección de las reacciones químicas. Una interpretación estadística de la tercera ley es más bien sencilla, puesto que la entropia se ha definido como:
161
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
En donde k es la constante de Bolzmall es la probabilidad termodinámica. En vista de la anterior disertación, la tercera ley equivale a establecer que: cuando
0.
Esto significa que sólo existe una forma de ocurrencia del estado de energía mínima para una sustancia que obedezca la tercera ley. Hay varios casos referidos en la literatura en donde los cálculos basados en la tercera ley no están desacuerdo con los experimentos. Sin embargo, en todos los casos es posible explicar el desacuerdo sobre la base de que la sustancia no es “pura”, esto es, pueda haber dos o más isótopos o presentarse moléculas diferentes o, también, una distribución de no equilibrio de las moléculas. En tales casos hay más de un estado cuántico en el cero absoluto y la entropia no tiende a cero. Calor y Temperatura Mediante el contacto de la epidermis con un objeto se perciben sensaciones de frío o de calor, siendo está muy caliente. Los conceptos de calor y frío son totalmente relativos y sólo se pueden establecer con la relación a un cuerpo de referencia como, por ejemplo, la mano del hombre. Lo que se percibe con más precisión es la temperatura del objeto o, más exactamente todavía, la diferencia entre la temperatura del mismo y la de la mano que la toca. Ahora bien, aunque la sensación experimentada sea tanto más intensa cuanto más elevada sea la temperatura, se trata sólo una apreciación muy poco exacta que no puede considerarse como medida de temperatura. Para efectuar esta ultima se utilizan otras propiedades del calor, como la dilatación, cuyos efectos son susceptibles. Con muy pocas excepciones todos los cuerpos aumentan de volumen al calentarse y diminuyen cuando se enfrían. En caso de los sólidos, el volumen suele incrementarse en todas las direcciones se puede observar este fenómeno en una de ellas con experiencia del pirometró del cuadrante. El, pirometro del cuadrante consta de una barra metálica apoyada en dos soportes, uno de los cuales se fija con un tornillo, mientras que el otro puede deslizarse y empujar una palanca acodada terminada por una aguja que recorre un cuadrante o escala cuadrada. Cuando, mediante un mechero, se calienta fuertemente la barra, está se dilata y el valor del alargamiento, ampliado por la palanca, aparece en el cuadrante. Otro experimento igualmente característico es el llamado del anillo de Gravesande. Este aparato se compone de un soporte del que cuelga una esfera metálica cuyo diámetro es ligeramente inferior al de un anillo el mismo metal por el cual puede pasar cuando las dos piezas están a l a misma temperatura. Si se calienta la esfera dejando el anillo a la temperatura ordinaria, aquella se dilata y no pasa por el anillo; en cambio puede volver a hacerlo una vez enfriada o en el caso en que se hayan calentando simultáneamente y a la misma temperatura la esfera y el anillo. La dilatación es, por consiguiente, una primera propiedad térmica de los cuerpos, que permite llegar a la noción de la temperatura. La segunda magnitud fundamental es la cantidad de calor que se supone reciben o ceden los cuerpos al calentarse o al enfriarse, respectivamente. La cantidad de calor que hay que proporcionar a un cuerpo para que su temperatura aumente en un numero de unidades determinado es tanto mayor cuanto más elevada es la masa de dicho cuerpo y es proporcional a lo que se denomina calor especifico de la sustancia de que está constituido. Cuando se calienta un cuerpo en uno de sus puntos, el calor se propaga a los que son próximos y la diferencia de temperatura entre el punto calentado directamente y otro situado a cierta distancia es tanto menor cuando mejor conducto del calor es dicho cuerpo. Si la conductabilidad térmica de un
162
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
cuerpo es pequeña, la transmisión del calor se manifiesta por un descenso rápido de la temperatura entre el punto calentado y otro próximo. Así sucede con el vidrio, la porcelana, el caucho, etc. En el caso contrario, por ejemplo con metales como el cobre y la plata, la conductabilidad térmica es muy grande y la disminución de temperatura entre un punto calentado y el otro próximo es muy reducida. Se desprende de lo anterior que el estudio del calor sólo puede hacerse después de haber definido de una manera exacta los dos términos relativos al propio calor, es decir, la temperatura, que se expresa en grados, y la cantidad de calor, que se expresa en calorías. Habrá que definir después algunas propiedades específicas de los cuerpos en su manera de comportarse con respecto al calor y la conductabilidad térmica. Energía calorifica La suma de la energía potencial y de la energía sintética de un sistema no permanece siempre constante. De una manera general, la energía mecánica total de un sistema disminuye con el frotamiento y los choques. Si por ejemplo, se frena un cuerpo durante su caída por un plano inclinado, de forma que su velocidad permanezca constante, se producirá una disminución de su energía potencial sin que aumente su energía cinética. Pero, en todos los fenómenos de esta naturaleza se produce calor. Así el fósforo de las cerillas se inflama por frotamiento, las herramientas se calientan al labrar los metales, etc. Sí una bala de plomo se dispara contra una placa de acero, se puede alcanzar, en el momento del choque, una temperatura superior a su punto de fusión. El calor debe, por consiguiente, considerarse como una forma de energía, hipótesis que se ve corroborada por la posibilidad de producir trabajo mecánico consumiendo calor, por ejemplo, en las maquinas de calor. ¿ Porque el Cielo es Azul ? El azul del cielo y el rojo de la puesta del sol, se deben a un fenómeno llamado <>. Cuando la luz del sol pasa por la atmósfera de la Tierra, mucha de la luz es recogida por las moléculas del aire y cedida otra vez en alguna otra dirección. El fenómeno es muy similar a la acción de las ondas del agua sobre los objetos flotantes. Si, por ejemplo, las ondulaciones procedentes de una piedra arrojada a un estanque de agua inmóvil encuentran algún corcho pequeño flotando en su superficie, el corcho cabecea subiendo y bajando con la frecuencia de las ondas que pasan. La luz se describe como actuando del mismo modo sobre moléculas del aire y finas partículas de polvo. Una vez puestas en vibración por una onda luminosa, una molécula o una partícula pueden emitir de nuevo luz absorbida, algunas veces en la misma dirección, pero generalmente en cualquier otra. Los experimentos demuestran, de acuerdo con la teoría de la difusión, que las ondas más cortas se difunden más fácilmente que las más largas. Para ser más específicos, la difusión es inversamente proporcional a la cuarta potencia de la longitud de onda. Difusión ∝ 1/λ4 De acuerdo con esta ley las ondas cortas de la luz violeta se difunden diez veces más fácilmente que las ondas largas de la luz roja. Los otros colores se difunden en proporciones intermedias. Así cuando la luz solar entra en la atmósfera de la Tierra, la luz violeta y la azul, se difunden más, seguidas del verde, amarilla, anaranjada y roja, en el orden indicado.
163
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Para cada diez ondas violetas ( λ = 0,00004 cm ) difundidas en un haz, hay sólo una onda roja ( λ = 0,00007 cm ).
Violeta
azul
verde
10
7
5
amarilla anaranjada 3
roja 2
1
A mediodía, en un día claro cuando el Sol está directamente en el cenit, el cielo entero aparece como azul claro. Este es el color compuesto de la mezcla de colores difundidos más efectivamente por las moléculas del aire. Puesto que el azul claro del triángulo de los colores se obtiene de la mezcla aditiva de violeta, azul, verde y amarillo. Las puestas de sol son rojas, la luz del cielo esta polarizada linealmente en bastante grado, como puede comprobarse sin dificultad mirando al cielo directamente hacia arriba, a través de una lamina polarizante, puesto que la luz difusa es sustraída del haz original, que resulta debilitado durante este proceso. Escalas de medición de la temperatura Las dos escalas de temperatura de uso común son la Celsius (llamada anteriormente ‘’centígrada’’) y la Fahrenheit. Estas se encuentran definidas en términos de la escala Kelvin, que es las escala fundamental de temperatura en la ciencia. La escala Celsius de temperatura usa la unidad ‘’grado Celsius’’ (símbolo 0C), igual a la unidad ‘’Kelvin’’. Por esto, los intervalos de temperatura tienen el mismo valor numérico en las escalas Celsius y Kelvin. La definición original de la escala Celsius se ha sustituido por otra que es más conveniente. Sí hacemos que Tc represente la escala de temperatura, entonces: Tc = T - 273.150 relaciona la temperatura Celsius Tc (0C) y la temperatura Kelvin T(K). Vemos que el punto triple del agua (=273.16K por definición), corresponde a 0.010C. La escala Celsius se definió de tal manera que la temperatura a la que el hielo y el aire saturado con agua se encuentran en equilibrio a la presión atmosférica - el llamado punto de hielo - es 0.00 0C y la temperatura a la que el vapor y el agua liquida, están en equilibrio a 1 atm de presión -el llamado punto del vapor- es de 100.00 0C. La escala Fahrenheit, todavía se usa en algunos países que emplean el idioma ingles aunque usualmente no se usa en el trabajo científico. Se define que la relación entre las escalas Fahrenheit y Celsius es:
De esta relación podemos concluir que el punto del hielo (0.000C) es igual a 32.0 0F, y que el punto del vapor (100.00C) es igual a 212.0 0F, y que un grado Fahrenheit es exactamente igual tamaño de un grado celcius.
164
del
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Entropía La entropía, como todas las variables de estado, dependen sólo de los estados del sistema, y debemos estar preparados para calcular el cambio en la entropía de procesos irreversibles, conociendo sólo los estados de principio y al fin. Consideraremos dos ejemplos:
1.- Dilatación libre: Dupliquemos el volumen de un gas, haciendo que se dilate en un recipiente vacío, puesto que no se efectúa reacción alguna contra el vacío, y, como el gas se encuentra encerrado entre paredes no conductoras, . por la primera ley se entiende que o:
donde
y
se refieren a los estados inicial y final (de equilibrio). Si el gas es ideal,
únicamente de la temperatura y no de la presión o el volumen, y la ecuación
depende implica que
. En realidad, la dilatación libre es irreversible, perdemos el control del medio ambiente una vez que abrimos la llave. Hay sin envergo, una diferencia de entropía , entre los estados de equilibrio inicial y final, pero no podemos calcularla con la ecuación
, por
que esta relación se aplica únicamente a trayectorias reversibles; si tratamos de usar la ecuación, tendremos inmediatamente la facultad de que Q = 0 para la dilatación libre - además - no sabremos como dar valores significativos de T en los estados intermedios que no son de equilibrio. Entonces, ¿Cómo calcularemos Sf - Si para estos estados?, lo haremos determinando una trayectoria reversible (cualquier trayectoria reversible) que conecte los estados y f, para así calcular el cambio de entropía de la trayectoria. En la dilatación libre, un trayecto reversible conveniente (suponiendo que se trate de un gas ideal) es una dilatación isotérmica de VI a Vf (=2Vi). Esto corresponde a la dilatación isotérmica que se lleva a cabo entre los puntos a y b del ciclo del Carnot. Esto representa un grupo de operaciones muy diferentes de la dilatación libre y tienen en común la única condición de que conectan el mismo grupo de estados de equilibrio, y f. De la ecuación y el ejemplo 1 tenemos.
165
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Esto es positivo, de tal manera que la entropía del sistema aumenta en este proceso adiabático irreversible. Nótese que la dilatación libre es un proceso que, en la naturaleza se desarrolla por sí mismo una vez iniciado. Realmente no podemos concebir lo opuesto, una compresión libre en la que el gas que en un recipiente aislado se comprima en forma espontanea de tal manera que ocupe solo la mitad del volumen que tiene disponible libremente. Toda nuestra experiencia nos dice que el primer proceso es inevitable y virtualmente, no se puede concebir el segundo.
2.- Transmisión irreversible de calor. Como otro ejemplo, considérense dos cuerpos que son semejantes en todo, excepto que uno se encuentra a una temperatura TH y el otro a la temperatura TC, donde TH> TC. Si ponemos ambos objetos en contacto dentro de una caja con paredes no conductoras, eventualmente llegan a la temperatura común Tm, con un valor entre TH y TC; como la dilatación libre, el proceso es irreversible, por que perdemos el control del medio ambiente, una vez que colocamos los dos cuerpos en la caja. Como la dilatación libre, este proceso también es adiabático (irreversible), por que no entra o sale calor en el sistema durante el proceso. Para calcular el cambio de entropía para el sistema durante este proceso, de nuevo debemos encontrar un proceso reversible que conecte los mismos estados inicial y final y calcular el cambio de entropía, aplicando la ecuación
al proceso. Podemos hacerlo, si
imaginamos que tenemos a nuestra disposición un deposito de calor de gran capacidad calorífica, cuya temperatura T este bajo nuestro control, digamos, haciendo girar una perilla. Primero ajustamos, la temperatura del deposito a TH a Tm, quitando calor al cuerpo caliente al mismo tiempo. En este proceso el cuerpo caliente pierde entropía, siendo el cambio de esta magnitud
Aquí T1 es una temperatura adecuada escogida entre TH y Tm y Q es el calor extraído. En seguida ajustamos la temperatura de nuestro depósito a Tc y lo colocamos en contacto con el segundo cuerpo (el más frío). A continuación elevamos lentamente (reversiblemente) la temperatura del depósito de Tc a Tm, cediendo calor al cuerpo frío mientras lo hacemos. El cuerpo frío gana entropía en este proceso, siendo su cambio
.
Aquí T2 es una temperatura adecuada, escogida para que quede entre Tc y Tm y Q es el calor agregado. El calor Q agregado al cuerpo frío es igual al Q extraído del cuerpo caliente. Los dos cuerpos se encuentran ahora en la misma temperatura Tm y el sistema se encuentra en el estado de equilibrio final. El cambio de entropía para el sistema completo es:
Como T1>T2, tenemos Sf >Si. De nuevo, como para la dilatación libre, la entropía del sistema aumenta en este proceso reversible y adiabático. Nótese que, como la dilatación libre, nuestro ejemplo de la conducción del calor es un proceso que en la naturaleza se desarrolla por sí mismo una vez que se ha iniciado. En realidad no podemos concebir el proceso opuesto, en el cual, por ejemplo, una varilla de metal en equilibrio térmico a la temperatura del cuarto espontáneamente se ajuste de tal manera, que un extremo quede más caliente y en el otro más frío. De nuevo, la
166
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
naturaleza tiene la preferencia irresistible para que el proceso se efectúe en una dirección determinada y no en la opuesta. En cada uno de estos ejemplos, debemos distinguir cuidadosamente el proceso real (irreversible) (dilatación libre o transmisión del calor) y el proceso reversible que se introdujo, para que se pudiera calcular el cambio de entropía en el proceso real. Podemos escoger cualquier proceso reversible, mientras conecte los mismos estados inicial y final que el proceso real; todos estos procesos reversibles llevarán al mismo cambio de entropía porque ella depende sólo los estados inicial y final y no de los procesos que los conectan, tanto si son reversibles como si son irreversibles.
Biología La biología (del griego «βιος» bios, vida, y «λογος» logos, estudio) es una de las ciencias naturales que tiene como objeto de estudio la materia viva y más especificamente su origen y evolución; así como de su propiedades (génesis, nutrición, morfogénesis, reproducción, patogenia, etc.). La biología se ocupa tanto de la descripción de las características y los comportamientos de los organismos individuales, como de las especies en su conjunto, así como de la reproducción de los seres vivos y de las interacciones entre ellos y el entorno. En otras palabras, se preocupa de la estructura y la dinámica funcional comunes a todos los seres vivos con el fin de establecer las leyes generales que rigen la vida orgánica y los principios explicativos fundamentales de ésta.
La palabra biología en su sentido moderno parece haber sido introducida independientemente por Gottfried Reinhold Treviranus (Biologie oder Philosophie der lebenden Natur, 1802) y por JeanBaptiste Lamarck (Hydrogéologie, 1802). Generalmente se dice que el término fue acuñado en 1800 por Karl Friedrich Burdach, aunque se menciona en el título del tercer volumen de Philosophiae naturalis sive physicae dogmaticae: Geologia, biologia, phytologia generalis et dendrologia, por Michael Christoph Hanov publicado en 1766.
La biología abarca un amplio espectro de campos de estudio que a menudo se tratan como disciplinas independientes. Juntas, estudian la vida en un amplio campo de escalas. La vida se estudia a escala atómica y molecular en la biología molecular, en la bioquímica y en la genética molecular. Desde el punto de vista celular, se estudia en la biología celular, y a escala multicelular, se estudia en la fisiología, la anatomía y la histología. La biología del desarrollo estudia el desarrollo o la ontogenia de un organismo individual. Ampliando el campo a más de un organismo, la genética trata el funcionamiento de la herencia de los padres a su descendencia. La etología trata el comportamiento de los grupos, esto es, de más de un individuo. La genética de poblaciones observa una población entera y la sistemática trata los linajes entre especies. Las poblaciones interdependientes y sus hábitats se examinan en la ecología y la biología evolutiva. Un nuevo campo de estudio es la astrobiología (o xenobiología), que estudia la posibilidad de la vida más allá de la Tierra.
Las clasificaciones de los seres vivos son muy numerosas, se proponen, desde la tradicional división en dos reinos establecida por Linneo en el siglo XVII, entre animales y plantas, hasta las propuestas actuales de los sistemas cladísticos con tres dominios que comprenden más de 20 reinos.
167
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
La biología estudia la variedad de formas de vida. En sentido horario: E. coli, Sauce japonés, gacela, y escarabajo Goliath.T
Historia de la biología La biología se ha desarrollado a lo largo del tiempo gracias a los aportes de notables investigadores que dedicaron su vida al estudio de la naturaleza.
Entre los más destacados se encuentra el filósofo griego Aristóteles. Fue el más grande naturalista de la Antigüedad, estudió y describió más de 500 especies animales; estableció la primera clasificación de los organismos que no fue superada hasta el siglo XVIII por Carl Linné.
Carl Linné estableció una clasificación de las especies conocidas hasta entonces, basándose en el concepto de especie como un grupo de individuos semejantes, con antepasados comunes. Agrupó a las especies en géneros, a éstos en órdenes y, finalmente, en clases, considerando sus características.
Estrechamente vinculado con el aspecto taxonómico, Linneo propuso el manejo de la nomenclatura binominal, que consiste en asignar a cada organismo dos palabras en latín, un sustantivo para el género y un adjetivo para la especie, lo que forma el nombre científico que debe subrayarse o destacarse con otro tipo de letra en un texto. El nombre científico sirve para evitar confusiones en la identificación y registro de los organismos.
Otro científico que hizo una gran contribución a la biología fue Charles Darwin, autor del libro denominado El Origen de las Especies. En él expuso sus ideas sobre la evolución de las especies por medio de la selección natural. Esta teoría originó, junto con la teoría celular y la de la herencia biológica, la integración de la base científica de la biología actual.
La herencia biológica fue estudiada por Gregor Mendel, quien hizo una serie de experimentos para estudiar cómo se heredan las características de padres a hijos, con lo que asentó las bases de la Genética. Uno de sus aciertos fue elegir chícharos para realizar sus experimentos, estos organismos son de fácil manejo ocupan poco espacio, se reproducen con rapidez, muestran características fáciles de identificar entre los padres e hijos y no son producto de una combinación previa.
Por otra parte, Louis Pasteur demostró la falsedad de la hipótesis de la generación espontánea al comprobar que un ser vivo procede de otro. El suponía que la presencia de los microorganismos en el aire ocasionaba la descomposición de algunos alimentos y que usando calor sería posible exterminarlos, este método recibe actualmente el nombre de pasterización o pasteurización.
Pasteur asentó las bases de la bacteriología, investigó acerca de la enfermedad del gusano de seda; el cólera de las gallinas y, desarrolló exitosamente la vacuna del ántrax para el ganado y la vacuna antirrábica.
168
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Alexandr Ivánovich Oparin, en su libro El origen de la vida sobre la Tierra (1936) dio una explicación de cómo pudo la materia inorgánica transformarse en orgánica y cómo esta última originó la materia viva.
James Watson y Francis Crick elaboraron un modelo de la estructura del ácido desoxirribonucleico, molécula que controla todos los procesos celulares tales como la alimentación, la reproducción y la transmisión de caracteres de padres a hijos. La molécula de DNA consiste en dos bandas enrolladas en forma de doble hélice, esto es, parecida a una escalera enrollada.
Entre los investigadores que observaron el comportamiento animal destaca Konrad Lorenz quien estudió un tipo especial de aprendizaje conocido como impresión o impronta. Para verificar si la conducta de las aves de seguir a su madre es aprendida o innata, Lorenz graznó y caminó frente a unos patitos recién nacidos, mismos que lo persiguieron, aun cuando les brindó la oportunidad de seguir a su madre o a otras aves. Con esto Lorenz demostró que la conducta de seguir a su madre no es innata sino aprendida.
Principios de la biología A diferencia de la física, la biología no suele describir sistemas biológicos en términos de objetos que obedecen leyes físicas inmutables descritas por las matemáticas. No obstante, la biología se caracteriza por seguir algunos principios y conceptos de gran importancia, entre los que se incluyen: la universalidad, la evolución, la diversidad, la continuidad, la homeóstasis y las interacciones.
Universalidad: bioquímica, células y el código genético
Representación esquemática de la molécula de ADN, la molécula portadora de la información genética.Artículo principal: Vida Hay muchas constantes universales y procesos comunes que son fundamentales para conocer las formas de vida. Por ejemplo, todas las formas de vida están compuestas por células, que están basadas en una bioquímica común, que es la química de los seres vivos. Todos los organismos perpetúan sus caracteres hereditarios mediante el material genético, que está basado en el ácido nucleico ADN, que emplea un código genético universal. En la biología del desarrollo, la característica de la universalidad también está presente: por ejemplo, el desarrollo temprano del embrión sigue unos pasos básicos que son muy similares en mucho organismos metazoos.
Evolución: el principio central de la biología Uno de los conceptos centrales de la biología es que toda vida desciende de un origen común que ha seguido el proceso de la evolución. De hecho, esta es una de las razones por la que los organismos biológicos exhiben una semejanza tan llamativa en las unidades y procesos que se han discutido en la sección anterior. Charles Darwin estableció la credibilidad de la teoría de la evolución al articular el concepto de selección natural (a Alfred Russell Wallace se le suele reconocer como codescubridor de este concepto). Con la llamada síntesis moderna de la teoría evolutiva, la deriva genética fue aceptada como otro mecanismo fundamental implicado en el proceso.
169
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Se llama filogenia al estudio de la historia evolutiva y las relaciones genealógicas de las estirpes. Las comparaciones de secuencias de ADN y de proteínas, facilitadas por el desarrollo técnico de la biología molecular y de la genómica, junto con el estudio comparativo de fósiles u otros restos paleontológicos, generan la información precisa para el análisis filogenético. El esfuerzo de los biólogos por abordar científicamente la comprensión y la clasificación de la diversidad de la vida, han dado lugar al desarrollo de diversas escuelas en competencia, como la fenética, que puede considerarse superada, o la cladística. No se discute que el desarrollo muy reciente de la capacidad de descifrar sobre bases sólidas la filogenia de las especies, está catalizando una nueva fase de gran productividad en el desarrollo de la biología.
Diversidad: variedad de organismos vivos
Árbol filogenético de los seres vivos basado en datos sobre su rARN. Los tres reinos principales de seres vivos aparecen claramente diferenciados: bacterias, archaea, y eucariotas tal y como fueron descritas inicialmente por Carl Woese. Otros árboles basados en datos genéticos de otro tipo resultan similares pero pueden agrupar algunos organismos en ramas ligeramente diferentes, presumiblemente debido a la rápida evolución del rARN. La relación exacta entre los tres grupos principales de organismos permanece todavía como un importante tema de debate.A pesar de la unidad subyacente, la vida exhibe una asombrosa diversidad en morfología, comportamiento y ciclos vitales. Para afrontar esta diversidad, los biólogos intentan clasificar todas las formas de vida. Esta clasificación científica refleja los árboles evolutivos (árboles filogenéticos) de los diferentes organismos. Dichas clasificaciones son competencia de las disciplinas de la sistemática y la taxonomía. La taxonomía sitúa a los organismos en grupos llamados taxa, mientras que la sistemática trata de encontrar sus relaciones.
Tradicionalmente, los seres vivos se han venido clasificando en cinco reinos:
Monera — Protista — Fungi — Plantae — Animalia Sin embargo, actualmente este sistema de cinco reinos se cree desfasado. Entre las ideas más modernas, generalmente se acepta el sistema de tres dominios:
Archaea (originalmente Archaebacteria) — Bacteria (originalmente Eubacteria) — Eucariota Estos ámbitos reflejan si las células poseen núcleo o no, así como las diferencias en el exterior de las células. Hay también una serie de "parásitos" intracelulares que, en términos de actividad metabólica son cada vez menos vivos:
Virus — Viroides —
170
Priones
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El reciente descubrimiento de una nueva clase de virus, denominado Mimivirus, ha causado que se proponga la existencia de un cuarto dominio debido a sus características particulares, en el que por ahora solo estaría incluído ese organismo.
Continuidad: el antepasado común de la vida Se dice que un grupo de organismos tiene un antepasado común si tiene un ancestro común. Todos los organismos existentes en la Tierra descienden de un ancestro común o, en su caso, de recursos genéticos ancestrales. Este último ancestro común universal, esto es, el ancestro común más reciente de todos los organismos, se cree que apareció hace alrededor de 3.500 millones de años (véase origen de la vida).
La noción de que "toda vida proviene de un huevo" (del latín "Omne vivum ex ovo") es un concepto fundacional de la biología moderna, y viene a decir que siempre ha existido una continuidad de la vida desde su origen inicial hasta la actualidad. En el siglo XIX se pensaba que las formas de vida podían aparecer de forma espontánea bajo ciertas condiciones (véase abiogénesis). Los biólogos consideran que la universalidad del código genético es una prueba definitiva a favor de la teoría del descendiente común universal (DCU) de todas las bacterias, archaea, y eucariotas (véase sistema de tres dominios).
Homeostasis: adaptación al cambio La homeostasis es la propiedad de un sistema abierto para regular su medio interno para mantener unas condiciones estables, mediante múltiples ajustes de equilibrio dinámico controlados por mecanismos de regulación interrelacionados. Todos los organismos vivos, sean unicelulars o pluricelulares tienen su propia homeostasis. Por poner unos ejemplos, la homeostasis se manifesta celularmente cuando se mantiene una acidez interna estable (pH); a nivel de organismo, cuando los animales de sangre caliente mantienen una temperatura corporal interna constante; y a nivel de ecosistema, al consumir dióxido de carbono las plantas regulan la concentración de esta molécula en la atmósfera. Los tejidos y los órganos también pueden mantener su propia homeostasis.
Interacciones: grupos y entornos
Simbiosis entre un pez payaso del género de los Amphipriones y las anémonas de mar. El pez protege a las anémonas de otros peces comedores de anémonas mientras que los tentáculos de las anémonas protegen al pez payaso de sus depredadores.Todos los seres vivos interactúan con otros organismos y con su entorno. Una de las razones por las que los sistemas biológicos pueden ser difíciles de estudiar es que hay demasiadas interacciones posibles. La respuesta de una bacteria microscópica a la concentración de azúcar en su medio (en su entorno) es tan compleja como la de un león buscando comida en la sabana africana. El comportamiento de una especie en particular puede ser cooperativo o agresivo; parasitario o simbiótico. Los estudios se vuelven mucho más complejos cuando dos o más especies diferentes interactúan en un mismo ecosistema; el estudio de estas interacciones es competencia de la ecología.
Alcance de la biología La biología se ha convertido en una iniciativa investigadora tan vasta que generalmente no se estudia como una única disciplina, sino como un conjunto de subdisciplinas. Aquí se considerarán cuatro amplios grupos.
171
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El primero de ellos consta de disciplinas que estudian las estructuras básicas de los sistemas vivos: células, genes, etc.; el segundo grupo considera la operación de estas estructuras a nivel de tejidos, órganos y cuerpos; una tercera agrupación tiene en cuenta los organismos y sus historias; la última constelación de disciplinas está enfocada a las interacciones. Sin embargo, es importante señalar que estos límites, agrupaciones y descripciones son una descripción simplificada de la investigación biológica. En realidad los límites entre disciplinas son muy inseguros y, frecuentemente, muchas disciplinas se prestan técnicas las unas a las otras. Por ejemplo, la biología de la evolución se apoya en gran medida de técnicas de la biología molecular para determinar las secuencias de ADN que ayudan a comprender la variación genética de una población; y la fisiología toma préstamos abundantes de la biología celular para describir la función de sistemas orgánicos.
Estructura de la vida
Esquema de una tipica célula animal con sus orgánulos y estructurasArtículos principales: Biología molecular, Biología celular, Genética, Biología del desarrollo, Bioquímica La biología molecular es el estudio de la biología a nivel molécular. El campo se solapa con otras áreas de la biología, en particular con la genética y la bioquímica. La biología molecular trata principalmente de comprender las interacciones entre varios sistemas de una célula, incluyendo la interrelación de la síntesis de proteínas de ADN y ARN y del aprendizaje de cómo se regulan estas interacciones.
La biología celular estudia las propiedades fisiológicas de las células, así como sus comportamientos, interacciones y entorno; esto se hace tanto a nivel microscópico como molecular. La biología celular investiga los organismos unicelulares como bacterias y células especializadas de organismos pluricelulares como los humanos.
La comprensión de la composición de las células y de cómo funcionan éstas es fundamental para todas las ciencias biológicas. La apreciación de las semejanzas y diferencias entre tipos de células es particularmente importante para los campos de la biología molecular y celular. Estas semejanzas y diferencias fundamentales permiten unificar los principios aprendidos del estudio de un tipo de célula, que se puede extrapolar y generalizar a otros tipos de células.
La genética es la ciencia de los genes, herencia y la variación de los organismos. En la investigación moderna, la genética proporciona importantes herramientas de investigación de la función de un gen particular, esto es, el análisis de interacciones genéticas. Dentro de los organismos, generalmente la información genética se encuentra en los cromosomas, y está representada en la estructura química de moléculas de ADN particulares.
Los genes codifican la información necesaria para sintetizar proteínas, que a su vez, juegan un gran papel influyendo (aunque, en muchos casos, no lo determinan completamente) el fenotipo final del organismo.
172
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
La biología del desarrollo estudia el proceso por el que los organismos crecen y se desarrollan. Con origen en la embriología, la biología del desarrollo actual estudia el control genético del crecimiento celular, la diferenciación celular y la morfogénesis, que es el proceso por el que se llega a la formación de los tejidos, de los órganos y de la anatomía.
Los organismos modelo de la biología del desarrollo incluyen el gusano redondo Caenorhabditis elegans, la mosca de la fruta Drosophila melanogaster, el pez cebra Brachydanio rerio, el ratón Mus musculus, y la hierba Arabidopsis thaliana.
Fisiología de los organismos La fisiología estudia los procesos mecánicos, físicos y bioquímicos de los organismos vivos, e intenta comprender cómo funcionan todas las estructuras como una unidad. El funcionamiento de las estructuras es un problema capital en biología.
Tradicionalmente se han dividido los estudios fisiológicos en fisiología vegetal y fisiología animal aunque los principios de la fisiología son universales, no importa que organismo particular se está estudiando. Por ejemplo, lo que se aprende de la fisiología de una célula de levadura puede aplicarse también a células humanas.
El campo de la fisiología animal extiende las herramientas y los métodos de la fisiología humana a las especies animales no humanas. La fisiología vegetal también toma prestadas técnicas de los dos campos.
La anatomía es una parte importante de la fisiología y considera cómo funcionan e interactúan los sistemas orgánicos de los animales como el sistema nervioso, el sistema inmunológico, el sistema endocrino, el sistema respiratorio y el sistema circulatorio. El estudio de estos sistemas se comparte con disciplinas orientadas a la medicina, como la neurología, la inmunología y otras semejantes. La anatomía comparada estudia los cambios morfofisiológicos que han ido experimentando las especies a lo largo de su historia evolutiva, valiéndose para ello de las homologías existentes en las especies actuales y el estudio de restos fósiles.
Por otra parte, más allá del nivel de organización organísmico, la Ecofisiología estudia los procesos fisiológicos que tienen lugar en las interacciones entre organismos, a nivel de comunidades y ecosistemas, así como de las interrelaciones entre los sistemas vivos y los inertes (como por ejemplo el estudio de los Ciclos biogeoquímicos o los intercambios biosfera-atmósfera).
Diversidad y evolución de los organismos
En el campo de la genética de poblaciones la evolución de una población de organismos puede representarse como un recorrido en un espacio de adaptación. Las flechas indican el flujo de la población sobre el espacio de adaptación y los puntos A, B y C representarían máximos de adaptabilidad locales. La bola roja indica una población que evoluciona desde una baja adaptación hasta la cima de uno de los máximos de adaptación.Artículos principales: Biología de la evolución, Botánica, Zoología
173
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
La biología de la evolución trata el origen y la descendencia de las especies, así como su cambio a lo largo del tiempo, esto es, su evolución.
La biología de la evolución es un campo global porque incluye científicos de diversas disciplinas tradicionalmente orientadas a la taxonomía. Por ejemplo, generalmente incluye científicos que tienen una formación especializada en organismos particulares, como la teriología, la ornitología o la herpetología, aunque usan estos organismos como sistemas para responder preguntas generales de la evolución. Esto también incluye a los paleontólogos que a partir de los fósiles responden preguntas acerca del modo y el tempo de la evolución, así como teóricos de áreas tales como la genética poblacional y la teoría de la evolución. En los años 90 la biología del desarrollo hizo una reentrada en la biología de la evolución desde su exclusión inicial de la síntesis moderna a través del estudiode la biología evolutiva del desarrollo. Algunos campos relacionados que a menudo se han considerado parte de la biología de la evolución son la filogenia, la sistemática y la taxonomía.
La dos disciplinas tradicionales orientadas a la taxonomía más importantes son la botánica y la zoología. La botánica es el estudio científico de las plantas. La botánica cubre un amplio rango de disciplinas científicas que estudian el crecimiento, la reproducción, el metabolismo, el desarrollo, las enfermedades y la evolución de la vida de la planta.
La zoología es la disciplina que trata el estudio de los animales, incluyendo la fisiología, la anatomía y la embriología. La genética común y los mecanismos de desarrollo de los animales y las plantas se estudia en la biología molecular, la genética molecular y la biología del desarrollo. La ecología de los animales está cubierta con la ecología del comportamiento y otros campos.
Clasificación de la vida El sistema de clasificación dominante se llama taxonomía de Linneo, e incluye rangos y nomenclatura binomial. El modo en que los organismos reciben su nombre está gobernado por acuerdos internacionales, como el Código Internacional de Nomenclatura Botánica (CINB o ICBN en inglés), el Código Internacional de Nomenclatura Zoológica (CINZ o ICZN en inglés) y el Código Internacional de Nomenclatura Bacteriana (CINB o ICNB en inglés). En 1997 se publicó un cuarto borrador del biocódigo (BioCode) en un intento de estandarizar la nomenclatura en las tres áreas, pero no parece haber sido adoptado formalmente. El Código Internacional de Clasificación y Nomenclatura de Virus (CICNV o ICVCN en inglés) permanece fuera del BioCode.
Organismos en interacción
La ecología estudia la distribución y la abundancia de organismos vivos y las interacciones de estos organismos con su entorno. El entorno de un organismo incluye tanto su hábitat, que se puede describir como la suma de factores abióticos locales como el clima y la geología, así como con los otros organismos con los que comparten ese hábitat. Las interacciones entre organismos pueden ser inter o intraespecíficas, y estas relaciones se pueden clasificar según si para cada uno de los agentes en interacción resulta beneficiosa, perjudicial o neutra.
Uno de los pilares fundamentales de la ecología es estudiar el flujo de energía que se propaga a través de la red trófica, desde los productores primarios hasta los consumidores y detritívoros, perdiendo calidad dicha energía en el proceso al disiparse en forma de calor. El principal aporte de
174
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
energía a los ecosistemas es la energía proveniente del sol, pero las plantas (en ecosistemas terrestres, o las algas en los acuáticos) tienen una eficiencia fotosintética limitada, al igual que los herbívoros y los carnívoros tienen una eficacia heterotrófica. Esta es la razón por la que un ecosistema siempre podrá mantener un mayor número y cantidad de herbívoros que de carnívoros, y es por lo que se conoce a las redes tróficas también como "pirámides", y es por esto que los ecosistemas tienen una capacidad de carga limitada (y la misma razón por la que se necesita mucho más territorio para producir carne que vegetales).
Los sistemas ecológicos se estudian a diferentes niveles, desde individuales y poblacionales (aunque en cierto modo puede hablarse de una "ecología de los genes", infraorganísmica), hasta los ecosistemas completos y la biosfera, existiendo algunas hipótesis que postulan que esta última podría considerarse en cierto modo un "supraorganismo" con capacidad de homeostasis. La ecología es una ciencia multidisciplinar y hace uso de muchas otras ramas de la ciencia, al mismo tiempo que permite aplicar algunos de sus análisis a otras disciplinas: en teoría de la comunicación se habla de Ecología de la información, y en marketing se estudian los nichos de mercado. Existe incluso una rama del pensamiento económico que sostiene que la economía es un sistema abierto que debe ser considerado como parte integrante del sistema ecológico global.
La etología, por otra parte, estudia el comportamiento animal (en particular de animales sociales como los insectos sociales, los cánidos o los primates), y a veces se considera una rama de la zoología. Los etólogos se han ocupado, a la luz de los procesos evolutivos, del comportamiento y la comprensión del comportamiento según la teoría de la selección natural. En cierto sentido, el primer etólogo moderno fue Charles Darwin, cuyo libro La expresión de las emociones en los animales y hombres influyó a muchos etólogos posteriores al sugerir que ciertos rasgos del comportamiento podrían estar sujetos a la misma presión selectiva que otros rasgos meramente físicos.
El especialista en hormigas E.O.Wilson despertó una aguda polémica en tiempos más recientes con su libro de 1980 Sociobiología: La Nueva Síntesis, al pretender que la Sociobiología debería ser una disciplina matriz, que partiendo de la metodología desarrollada por los etólogos, englobase tanto a la Psicología como a la antropología o la Sociología y en general a todas las ciencias sociales, ya que en su visión la naturaleza humana es esencialmente animal. Este enfoque ha sido criticado por autores como el genético R.C.Lewontin por exhibir un reduccionismo que en última instancia justifica y legitima las diferencias instituidas socialmente.
La etología moderna comprende disciplinas como la neuroetología, inspiradas en la cibernética y con aplicaciones industriales en el campo de la robótica y la neuropsiquiatría. También toma prestados muchos desarrollos de la teoría de juegos, especialmente en dinámicas evolutivas, y algunos de sus conceptos más populares son el de Gen egoísta, creado por Richard Dawkins o el de Meme.
Biología celular y molecular La biología celular persigue la comprensión de las funciones de la célula (unidad estructural básica de la materia viva).
Los seres vivos atendiendo a su organización celular se clasificarán en acelulares (virus, viroides) y celulares, siendos estos a su vez clasificados en eucariotas y procariotas.
175
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Para alcanzar sus objetivos, los biólogos celulares se ven obligados a estudiar los componentes de la célula a nivel molecular (biología molecular).
Componentes pricipales del estudio celular: • • • • • • • • • • • •
membrana plasmática citoesqueleto núcleo celular ribosomas retículo endoplásmico aparato de Golgi mitocondrias cloroplastos lisosomas peroxisomas vacuolas pared celular
La célula es una unidad mínima de un organismo capaz de actuar de manera autónoma. Todos los organismos vivos están formados por células, y en general se acepta que ningún organismo es un ser vivo si no consta al menos de una célula. Algunos organismos microscópicos, como bacterias y protozoos, son células únicas, mientras que los animales y plantas están formados por muchos millones de células organizadas en tejidos y órganos. Aunque los virus y los extractos acelulares realizan muchas de las funciones propias de la célula viva, carecen de metabolismo, capacidad de crecimiento y reproducción (características propias de los seres vivos) y, por tanto, no se consideran organismos vivos. La biología celular estudia las células en función de su constitución molecular y la forma en que cooperan entre sí para constituir organismos muy complejos, como el ser humano. Para poder comprender cómo funciona el cuerpo humano sano, cómo se desarrolla y envejece y qué falla en caso de enfermedad, es imprescindible conocer las células que lo constituyen. A continuación trataremos de analizar más profundamente el comportamiento, estructura, y todo lo relacionado con la célula Características generales de las células Hay células de formas y tamaños muy variados. Algunas de las células bacterianas más pequeñas tienen forma cilíndrica de menos de una micra (1 micra es igual a una millonésima de metro ). En el extremo opuesto se encuentran las células nerviosas, corpúsculos de forma compleja con numerosas prolongaciones delgadas que pueden alcanzar varios metros de longitud (las del cuello de la jirafa constituyen un ejemplo espectacular). Casi todas las células vegetales tienen entre 20 y 30 micras de longitud, forma poligonal y pared celular rígida. Las células de los tejidos animales suelen ser compactas, entre 10 y 20 micras de diámetro y con una membrana superficial deformable y casi siempre muy plegada. Pese a las muchas diferencias de aspecto y función, todas las células están envueltas en una membrana —llamada membrana plasmática— que encierra una sustancia rica en agua llamada citoplasma.
176
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
En el interior de las células tienen lugar numerosas reacciones químicas que le permiten crecer, producir energía y eliminar residuos. El conjunto de estas reacciones se llama metabolismo (término que proviene de una palabra griega que significa cambio). Todas las células contienen información hereditaria codificada en moléculas de ácido desoxirribonucleico (ADN); esta información dirige la actividad de la célula y asegura la reproducción y el paso de los caracteres a la descendencia. Estas y otras numerosas similitudes (entre ellas muchas moléculas idénticas o casi idénticas) demuestran que hay una relación evolutiva entre las células actuales y las primeras que aparecieron sobre la tierra. Composición química En los organismos vivos no hay nada que contradiga las leyes de la química y la física. La química de los seres vivos, objeto de estudio de la bioquímica, está dominada por compuestos de carbono y se caracteriza por reacciones acaecidas en solución acuosa y en un intervalo de temperaturas pequeño. La química de los organismos vivientes es muy compleja, más que la de cualquier otro sistema químico conocido. Está dominada y coordinada por polímeros de gran tamaño, moléculas formadas por encadenamiento de subunidades químicas; las propiedades únicas de estos compuestos permiten a células y organismos crecer y reproducirse. Los tipos principales de macromoléculas son las proteínas, formadas por cadenas lineales de aminoácidos; los ácidos nucleicos, ADN y ARN, formados por bases nucleotídicas, y los polisacáridos, formados por subunidades de azúcares. MEMBRANA CELULAR Características La célula puede existir como entidad individual porque su membrana regula el pasaje de materiales hacia su exterior e interior. La membrana celular, o también llamada membrana plasmática solo mide de 7 a 9 nanómetros de espesor. Todas las membranas de la célula, incluso las que rodean a los diversos orgánulos, poseen esta misma estructura, pero existen diferencias en la composición de sus lípidos y, en particular, en la cantidad y tipo de proteínas y carbohidratos. Estas diferencias imparten a las membranas de distintos tipos de células y a los distintos orgánulos propiedades singulares que pueden correlacionarse con diferencias en la función de la membrana. La membrana celular no es fija, sino dinámica, pues es capaz de modificarse, y en ese proceso genera canales o poros y otras modificaciones que veremos después. Debido a dicha estructura fluida las moléculas pueden desplazarse a través de ella y así se establece una comunicación del citoplasma con el medio externo. El paso de sustancias por la membrana plasmática permite el intercambio entre el citoplasma y el ambiente exterior. Este paso es selectivo, esto es, la membrana selecciona las sustancias (moléculas) que han de pasar en uno u otro sentido. Funciones de la membrana plasmática •
Regula el pasaje de sustancias hacia su exterior y viceversa:
177
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
La incorporación de nutrientes y la eliminación de deshechos, se hace en muchos casos atravesando la membrana plasmática. Este transporte es posible mediante la propia membrana. En otros casos, sobre todo en los de célula libre (organismos unicelulares) o cuando el tamaño de las partículas no permiten que pasen a través de la membrana, esta se deforma, englobando las partículas. En células animales que usan como alimento a nutrientes complejos, es necesario someterlo previamente a una transformación (digestión) para convertirlos en sustancias más simples que puedan atravesar la membrana celular. •
La membrana plasmática es capaz de detectar cambios del ambiente:
Las células responden a los estímulos de forma muy variada, pero la mayor parte responde con un movimiento o con la elaboración de algún producto (secreción). En ellos participa la membrana plasmática y el citoplasma. Los movimientos celulares pueden dar lugar al desplazamiento de toda la célula, es decir a su locomoción; o bien quedar reducidos a cambios de posición de algunas de sus partes. El tipo de movimiento originado puede ser muy variable: por emisión de pseudopodos, por cilios, por flagelos; incluso movimientos endocelulares que afectan al citoplasma celular. •
La membrana plasmática aísla y protege a la célula del medio externo:
En este caso actúa como una verdadera muralla, en algunos casos permitiendo o no que entren sustancias, esto va a determinar si la membrana es permeable (si deja pasar a las sustancias), impermeable (si no deja pasar sustancias) y semipermeable si es una combinación de ambas. ¿Cómo se mueven las células? Todas las células exhiben algún tipo de movimiento. Hasta las células vegetales, encasilladas en una rígida pared celular. Hasta el momento se identifican dos mecanismos de movimiento celular: Por proteína celular: Los músculos esqueléticos de los vertebrados contienen intrincados conjuntos contráctiles que consisten en filamentos proteicos. las dos proteínas principales de la musculatura esquelética son actina y miosina. A estas proteínas se les suele conocer como proteínas musculares. Sin embargo, ahora se sabe que la actina en particular existe en una gran variedad de células, incluso en vegetales. Como se recordara los microfilamentos del citoesqueleto consisten en subunidades de actina. Dispuesta en estos microfilamentos, la actina participa en el movimiento de la célula y en el movimiento interno celular. Las proteínas contráctiles intervienen en procesos celulares muy diversos. Los citólogos están llegando a la conclusión de que las proteínas "musculares" son comunes a todas las células y la intrincada maquinaria contráctil de las células de los músculos esqueléticos es una especialización es una evolución reciente. Por cilios y flagelos: Son estructuras largas finas (0.2 micrómetros) que parten de la superficie de muchas células eucariotas. Excepto por su longitud los cilios y flagelos poseen la misma estructura. Cuando son más cortas y más numerosas se les suele llamar cilias; cuando son más cortas y menos numerosas, flagelos: las células procariotas también poseen flagelos, pero su estructura es muy distinta. En las eucariotas y en algunos animales pequeños las cilias y flagelos se asocian con la locomoción del organismo. Por ejemplo, un tipo de Paramecium tiene unas 17000 cilias, cada una de unos 10 micrómetros de longitud, que lo propulsan por el agua de manera coordinada. Otros organismos unicelulares, como los miembros del género de los Chlamydomonas, sólo tienen 2 flagelos en látigo que sobresalen del extremo anterior del organismo y lo desplazan por el agua. Muchas células que revisten la superficie del cuerpo humano también son ciliadas. Estas cilias no mueven a la célula, sino que sirven para arrastrar sustancias ambientales a lo largo de la superficie
178
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
celular. Por ejemplo las cilias del tracto respiratorio, que pulsan hacia arriba cualquier sustancia inhalada accidentalmente. Casi todas las cilias y flagelos de los eucariotas tienen la misma estructura: nueve pares de microtúbulos fusionados que forman un anillo en torno a otros dos microtúbulos solitarios centrales. Mecanismos de transporte La difusión La difusión es el fenómeno en donde una sustancia que se encuentra concentrada en sector se difumina hacia otros sectores. Esto mismo pasa en las células. El agua, el oxígeno, el dióxido de carbono y algunos otras moléculas simples difunden con libertad a través de las membranas celulares. La difusión también es uno de los medios principales por los cuales las sustancias se desplazan dentro de la célula. Uno de los de los factores principales que limitan el tamaño celular es su dependencia a la difusión, que es, en esencia un proceso lento, salvo si las distancias son muy cortas. Como se aprecia en la figura este proceso adquiere creciente lentitud y menor eficiencia a medida que la distancia cubierta por las moléculas que se difunden aumenta. La rápida diseminación de una sustancia un volumen grande, no se debe en particular a la difusión. Del mismo modo, en muchas células el transporte de materiales se acelera mediante circulación activa del citoplasma. Para una difusión eficiente no sólo se requiere un volumen relativamente pequeño, sino también un gradiente de concentración acentuado. Las células mantienen estos gradientes con sus actividades metabólicas, con lo cual se acelera la difusión. Asimismo, dentro de la célula a menudo se producen materiales un sitio y se les usa en otros Endocitosis y exocitosis En otros tipos de procesos de transporte participan vacuolos que se forman a partir de la membrana celular o se fusionan con ella. En la endocitosis el material que será captado por la célula se adhiere a las áreas especiales de la membrana celular y hace que esta se abulte hacia adentro, produciendo un pequeño saco o vacuolo que engloba a la sustancia. Este vacuolo se libera dentro del citoplasma. Este proceso también puede funcionar a la inversa. Por ejemplo muchas sustancias se exportan desde las células en vesículas o vacuolos formados por los cuerpos de Golgi. Los vacuolos se desplazan hasta la superficie de la célula. Al llegar a la superficie celular, la membrana del vacuolo se fusiona con la membrana de la célula y su contenido se expulsa así hacia el exterior. Este proceso es la exocitosis. Como se verá en la figura, la superficie de la membrana que mira hacia al interior de un vacuolos es equivalente a la superficie que mira hacia el exterior de la célula: del mismo modo, la superficie de la membrana del vacuolo que mira hacia el citoplasma es equivalente a la superficie citoplasmática de la membrana celular. El material necesario para la expansión de la membrana celular a medida que crece la célula, sería transportado ya listo, desde los cuerpos de Golgi hasta la membrana, mediante un proceso similar a la exocitosis. También hay evidencia que las porciones de la membrana celular que se utilizan para formar vacuolos endocitóticos vuelven a la membrana en la exócitosis, de modo que los lípidos y proteínas de la membrana se reciclen Fagocitosis Es cuando la sustancia que ha ser captada por la célula mediante endocitosis es un sólido, como una célula bacteriana, dicho proceso se le denomina fagocitosis, de la palabra griega fago, "comer". Muchos organismos unicelulares como las amebas, se alimentan de esta manera y los glóbulos blancos del torrente sanguíneo humano engloban bacterias y otros invasores en vacuolos fagocitarios. A veces los lisosomas se fusionan con los vacuolos, descargando en ellos sus
179
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
enzimas y dirigiendo o destruyendo así su contenido. A la captación de moléculas disueltas, en lugar de partículas, se le da a veces el nombre de pinocitosis, aunque en principio es lo mismo que la fagocitosis. La pinocitosis no sólo ocurre en organismos unicelulares, sino también en pluricelulares. una célula en la cual se le observó con frecuencia es el óvulo humano. A medida que el óvulo madura en el ovario d la mujer, es rodeado por la "células nodrizas" que le transmitirían principios nutritivos los que son captados por el óvulo mediante pinocitosis. A los sistemas de transporte de membrana en los que intervienen moléculas portadoras, pero, en esencia son similares porque todos dependen de la capacidad de la membrana para "reconocer" determinadas moléculas. Esta capacidad, por supuesto es consecuencia de miles de millones de años de un proceso evolutivo y comenzó, según podemos discernir, con la formación de una frágil película en torno de unas pocas moléculas orgánicas, que separó así a estas moléculas de su ambiente externo y les permitió mantener el tipo de organización en particular que reconocemos como vida. Osmosis y transporte activo Se dice que la membrana que permite el pasaje de algunas sustancias y bloquea el de otras es, selectivamente permeable. El movimiento de moléculas de agua a través de este tipo de membrana es un caso especial de difusión que se conoce como osmosis. La osmosis ocasiona una transferencia neta de agua desde una solución con potencial hídrico más alto hacia otra que tiene un potencial más bajo. En ausencia de otros factores que influyen en el potencial hídrico, en la osmosis el agua se desplaza desde una región donde la concentración de solutos es menor, hacia una región donde la concentración de solutos es mayor. La presencia de soluto reduce el potencial hídrico y crea así un gradiente de potencial hídrico a lo largo del cual el agua se difunde. La presión osmótica refleja el potencial osmótico de la solución, es decir, la tendencia del agua a atravesar una membrana hacia la solución. Existen muchos mecanismos para hacer que las moléculas hidrofílicas y los iones atraviesen la membrana. Primero, en la membrana existirían aberturas por las cuales pueden difundir moléculas de agua. Estas aberturas pueden ser poros permanentes creados por la estructura terciaria de algunas proteínas integrales o aberturas momentáneas debido a los movimientos de las moléculas lipídicas de la membrana. Otras moléculas polares también pueden pasar por estas aberturas si son lo suficientemente pequeñas. La permeabilidad de la membrana para estos solutos es inversamente proporcional al tamaño de las moléculas. Segundo, algunas proteínas integrales de la membrana actúan como portadoras acarreando en ambas direcciones moléculas que no pueden atravesar con facilidad la membrana por difusión a causa de su tamaño o polaridad. Estas proteínas transportadoras son muy selectivas porque una portadora en particular puede aceptar a una molécula y excluir a otra casa idéntica. Además, la molécula proteica no se altera de modo permanente en el proceso de transporte. En este sentido las moléculas transportadoras son como enzimas, y a los efectos de destacar eso, se les denominó permeasas, estas no producen cambios químicos necesariamente, en las moléculas con las cuales interacciona. Algunas proteínas portadoras sólo transportan sustancias a través de la membrana si el gradiente de concentración es favorable, este transporte asistido por portadoras se conoce como difusión facilitada. Como es propulsado por el gradiente de concentración, lleva moléculas de una región concentrada a otra no tan concentrada.
180
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Otros portadores transportan moléculas venciendo el gradiente de concentración, este proceso requiere energía, y se le conoce como transporte activo Citoplasma El citoplasma comprende todo el volumen de la célula, salvo el núcleo. Engloba numerosas estructuras especializadas y orgánulos, como se describirá más adelante. La solución acuosa concentrada en la que están suspendidos los orgánulos se llama citosol. Es un gel de base acuosa que contiene gran cantidad de moléculas grandes y pequeñas, y en la mayor parte de las células es, con diferencia, el compartimiento más voluminoso (en las bacterias es el único compartimento intracelular). En el citosol se producen muchas de las funciones más importantes de mantenimiento celular, como las primeras etapas de descomposición de moléculas nutritivas y la síntesis de muchas de las grandes moléculas que constituyen la célula. Aunque muchas moléculas del citosol se encuentran en estado de solución verdadera y se desplazan con rapidez de restringidas un lugar a otro por difusión libre, otras están ordenadas de forma rigurosa. Estas estructuras ordenadas confieren al citosol una organización interna que actúa como marco para la fabricación y descomposición de grandes moléculas y canaliza muchas de las reacciones químicas celulares a lo largo de vías. A continuación se verán algunas de las estructuras que se encuentran al interior del citoplasma. Citoesqueleto El gran avance en la microcoscopía electrónica, permitió la visualización tridimensional del interior de la célula, la cual ha revelado interacciones insospechadas entre las estructuras proteicas filamentosas del interior del citoplasma. Estas estructuras internas forman el citoesqueleto interno, que mantiene la forma de la célula, le permite moverse, fija a sus orgánulos y dirige su "transito". En el citoesqueleto se identificaron cuatro tipos de estructura: microtúbulos, microfilamentos, fibras internas y microtrabéculas. •
Los microtúbulos: miden de 20 a 25 nanómetros de diámetro y en muchas células parecen extenderse desde el centro para ir a terminar cerca de la superficie celular. Estos microtúbulos desempeñan un papel importante en la división celular y proporcionan un andamiaje temporal para la construcción de otras estructuras celulares. También son los componentes claves de los cilios y flagelos, estructuras permanentes que muchos tipos de célula usan para su locomoción.
•
Los microfilamentos: son unos fino filos proteicos de sólo3 a 6 nanómetros de diámetro que consisten en moléculas de una proteína globular conocida como actina. Lo mismo que los microtúbulos la célula los puede armar y desarmar con facilidad. Los microfilamentos intervienen en la movilidad celular. En las células que se mueven mediantes cambios graduales de forma, como las amebas, aparecen concentrados en haces o en una maya cerca del borde móvil.
•
Las fibras intermedias: como su nombre lo sugiere tienen un tamaño promedio, entre el de los microtúbulos y el de los microfilamentos, pues su diámetro es de 7 a 10 nanómetros. A diferencia de los microtúbulos y de los microfilametos, que consisten en subunidades de proteína globular, las fibras intermedias están constituidas por proteínas fibrosas y la célula no puede desarmarlas con facilidad una vez que se han formado. Se supone que estas poseen una estructura con forma de soga semejante a la del colágeno y su densidad es máxima en las células sometidas a esfuerzos mecánicos.
181
•
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Los elementos del citoesqueleto descubiertos en épocas más recientes son las mictotrabéculas, fibras a modo de mechones, que constituyen una densa red que interconecta a todas las otras estructuras citoplasmáticas, aunque todavía no se conoce bien su composición química, se supone que contienen proteínas.
Si bien el citoesqueleto confiere a la célula una estructura tridimensional muy ordenada, no es rígido ni permanente, sino que se trata de una armazón dinámica que se modifica y traslada según las actividades de la célula. Mitocondria Las mitocondrias son estructuras pequeñas, elongadas y ocasionalmente esféricas de 1 a 5 microm de longitud. El número de mitocondrias por célula varía con el tipo de célula, la edad y especie, siendo de un pocos cientos a miles. Su función principal es la respiración celular - dentro de ella se llevan a cabo los procesos de conversión energética del ciclo del ácido tricarboxílico (CATC), transporte de electrones y fosforilación oxidativa, por consecuencia, son de importancia crítica en el reciclado de la energía almacenada después de la cosecha. La mitocondria está rodeada por una membrana doble - la externa es relativamente porosa, mientras que la interna contiene numerosos dobleces llamados crestas, mientras más activa sea la célula más crestas tendrá la mitocondria. Las proteínas del transporte de electrones se encuentran en la superficie de las crestas. Muchas de las enzimas involucradas en el CATC se encuentran libres dentro de la matriz de la mitocondria, así como el ARN y ADN mitocondriales, que controlan la síntesis de algunas enzimas mitocondriales. El incremento en el número de mitocondrias ocurre durante el incremento en el tamaño de las células. Centriolos y cuerpos basales Muchas células, especialmente eucariotas poseen centriolos, que son pequeños cilindros de unos 0.2 micrómetros de diámetro, que están formados por 9 tripletes de microtúbulos. Estos centriolos se disponen en pares con sus ejes perpendiculares entre sí, en el centro de la célula cerca del núcleo. El centriolo forma parte del huso mitótico durante la división celular en animales y tendría alguna responsabilidad en el desplazamiento de los cromosomas. Debajo de cada cilio y flagelo se encuentra un cuerpo basal de idéntica estructura que los centriolos. Cuerpos de Golgi Cada cuerpo de Golgi consiste en unos sacos membranosos aplanados que se hallan apilados flojamente los unos sobre los otros y están rodeados por túbulos y vesículas. El cuerpo de Golgi cumple la función de recibir vesículas procedentes del retículo endoplásmico, modificar las membranas de las vesículas, procesar más su contenido y distribuir el producto terminado a otras partes de las células, en particular a la superficie celular. En consecuencia, servirían de centros de empaquetamiento y distribución. En el cuerpo de Golgi tiene lugar el montaje final de las proteínas y carbohidratos que están en la superficie de las membranas celulares. En las células vegetales, los cuerpos de Golgi también reúnen a algunos componentes de las células, donde se les ensambla. Los cuerpos de Golgi
182
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
existen en la mayoría de las células eucarióticas, las células de los animales suelen contener de 10 a 20 cuerpos de Golgi y las de las plantas pueden contener varios centenares. Plastos o plastidios Los plastidios son orgánulos membranosos que sólo existen en las células de las plantas y de las algas. Están rodeados por dos membranas, lo mismo que la mitocondrias, y poseen un sistema membranoso interno que puede formar intrincados plegamientos. Los plástidos maduros son de tres tipos. Los leucoplastos (leuco = blanco) almacenan almidón o, a veces, proteínas o aceites. Los leucoplastos tienden a ser numerosos en órganos de almacenamiento como raíces, el nabo, o tubérculos, ejemplo en la papa. Los cromoplastos (cromo = color) contienen pigmentos y se asocian con el intenso color anaranjado y amarillo de frutos, flores, hojas otoñales y zanahorias. Los cloroplastos (cloro = verde) son los plastidios que contienen la clorofila y en los cuales tiene lugar la fotosíntesis. Lisosomas Los lisosomas tienen una estructura muy sencilla, semejantes a vacuolas, rodeados solamente por una membrana, contienen gran cantidad de enzimas digestivas que degradan todas las moléculas inservibles para la célula. Funcionan como "estómagos" de la célula y además de digerir cualquier sustancia que ingrese del exterior, vacuolas digestivas ingieren restos celulares viejos para digerirlos también, llamados entonces vacuolas autofágicas Llamados "bolsas suicidas" porque si se rompiera su membrana, las enzimas encerradas en su interior , terminarían por destruir a toda la célula. Los lisosomas se forman a partir del Retículo endoplásmico rugoso y posteriormente las enzimas son empaquetadas por el Complejo de Golgi. Son vesículas englobadas por una membrana que se forman en el aparato de Golgi y que contienen un gran número de enzimas digestivas (hidrolíticas y proteolíticas) capaces de romper una gran variedad de moléculas. La carencia de algunas de estas enzimas puede ocasionar enfermedades metabólicas como la enfermedad de Tay-Sachs Las enzimas proteolíticas funcionan mejor a pH ácido y, para conseguirlo la membrana del lisosoma contiene una bomba de protones que introduce H+ en la vesícula. Como consecuencia de esto, el lisosoma tiene un pH inferior a 5.0. Las enzimas lisosomales son capaces de digerir bacterias y otras sustancias que entran en la célula por fagocitosis, u otros procesos de endocitosis. Eventualmente, los productos de la digestión son tan pequeños que pueden pasar la membrana del lisosoma volviendo al citosol donde son recicladas Los lisosomas utilizan sus enzimas para reciclar los diferentes orgánulos de la célula, englobándolos, digiriéndoles y liberando sus componentes en el citosol. De esta forma los
183
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
orgánulos de la célula se están continuamente reponiendo. El proceso de digestión de los orgánulos se llama autofagia. Por ejemplo, las células hepáticas se reconstituyen por completo una vez cada dos semanas. Otra función de los lisosomas es la digestión extracelular en heridas y quemaduras, preparando y limpiando el terreno para la reparación del tejido.
Retículo endoplásmico Es una red de sacos aplanados, túbulos y conductos intercomunicantes que existen en las células eucariotas. La cantidad de retículo endoplasmático de una célula no es fija, sino que disminuye o aumenta según la actividad celular. Existen dos tipos de retículo endoplasmático, el rugoso (con ribosomas adheridos) y el liso (sin ribosomas). El retículo endoplásmico rugoso predomina en las células que elaboran gran cantidad de proteínas para exportar. Este retículo se continua con la membrana externa de la envoltura nuclear, que también tiene ribosomas adheridos. Muchas veces el retículo endoplásmico rugoso comprende unos grandes sacos aplanados que se llaman cisternas. Si se permite que las células dedicadas a la síntesis de proteínas capten aminoácidos radiactivos, los marcadores radiactivos se detectan primero en la membrana del retículo endoplásmico rugoso y poco después dentro de sus cisternas. La porción inicial de proteínas sintetizadas en este retículo endoplásmico consiste en un "líder" de aminoácidos hidrofóbicos que contribuiría al transporte de la proteína a través de la doble capa lipídica hacia el interior del retículo. La molécula proteica recién sintetizada pasa del retículo endoplasmático rugoso al liso y luego a los cuerpos de Golgi. En el curso de este andar de un orgánulo a otro, la molécula experimenta un proceso adicional que comprende el clivaje de la secuencia inicial de aminoácidos hidrofóbicos y, a menudo, la adición de grupos carbohidrato a la proteína. Las células que intervienen en la síntesis de lípidos poseen grandes cantidades de retículo endoplásmico liso. También se presenta en las células hepáticas, donde intervendría en diversos procesos de destoxificación. Por ejemplo en animales de experimentación, a los que se le da por la boca grandes cantidades de fenobarbital, la cantidad de retículo endoplásmico liso de las células hepáticas aumenta varias veces. En retículo endoplásmico liso también intervendría en la degradación hepática del glucógeno a glucosa. Además, como ya señalamos, serviría de conducto para el material que pasa desde el retículo endoplásmico rugoso a los cuerpos de Golgi. Ribosomas Son los orgánulos celulares más numerosos. Estos orgánulos están presentes en todas las células y están asociados al retículo endoplásmico rugoso, formando juntos lo que se denomina el ergatoplasma. Tienen forma de elipsoide suavemente alargado y su tamaño en seco es de 170Å x 170Å x 200Å (Å= angström = 1/100000000 cm). Están compuestos de dos subunidades, fácilmente disociables y aislables por ultracentrifugación, que se caracterizan por sus coeficientes de sedimentación. Con frecuencia, los ribosomas se asocian entre ellos para formar complejos denominados polirribosomas o polisomas. Estos desempeñan una función biológica muy importante ya que son el soporte activo de la síntesis proteica celular. Intervienen en la unión del mRNA, del tRNA y en la formación del enlace peptídico durante la síntesis del ribosoma de las paredes celulares. En cuanto a composición podemos distinguir dos tipos de componentes: a) Componentes de alto peso molecular, que son los ácidos ribonucleicos y las proteínas. Contienen en la célula eucariota un 50% de ARN y un 50% de proteínas.
184
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
b) Componentes de bajo peso molecular, que son los iones de magnesio y las di y poliaminas. Los iones magnésicos son necesarios para la integridad estructural del ribosoma; su falta conduce a la disociación de las subpartículas y a la degradación enzimática de RNA ribosómico. Vacuolas y perixosomas Además de los orgánulos y del citoesqueleto, el citoplasma de muchas células, en particular de las células vegetales, contiene vacuolas. La vacuola es un espacio del citoplasma ocupado por agua y solutos, rodeado por una membrana simple. Es característico que las células vegetales inmaduras posean muchas vacuolas, pero a medida que estas maduran, las numerosas vacuolas pequeñas comienzan a formar una gran vacuola central llena de líquido que después se convierte en un importante medio de sostén de la célula. Además, la vacuola agranda a la célula, incluso la superficie expuesta al ambiente, con inversión mínima de materiales estructurales de parte de la célula. Las vesículas, más comunes en los animales, poseen la misma estructura general que las vacuolas y se distinguen por su tamaño, pues suelen medir menos de 100 nanómetros de diámetro, mientras que las vacuolas son más grandes. Otro tipo de vesícula que contiene destructivas son los perixosomas. Los perixosomas son unas vesículas en las cuales células degrada purinas (una de las dos categorías principales de base nitrogenada). En los perixosomas de las plantas también ocurren una serie de reacciones bajo la luz solar cuando la célula contiene concentraciones relativamente grandes de oxígeno. Estas reacciones y la degradación de las purinas producen peróxido de hidrogeno (H2O2), que es sumamente tóxico para las células vivas pero los perixosomas contienen otra enzima que inmediatamente desdobla al peróxido de hidrogeno en agua y oxígeno, evitando que la célula se lesione. Núcleo En las células eucarioticas el núcleo es un cuerpo grande, menudo esférico, que por lo general es la estructura que más se destaca dentro de la célula. Esta rodeado por dos membranas lipoproteicas, que juntas forman la envoltura nuclear. Entre estas dos membranas hay un espacio de veinte a cuarenta nanómetros, pero a intervalos frecuentes se hallan fusionadas para crear unos poros por los cuales pasan materiales entre el núcleo y el citoplasma. Los poros que se hallan rodeados por unos grandes gránulos que contienen proteína y están dispuestos en forma octogonal, forman un conducto estrecho que pasa a través de la doble capa lipídica fusionada. Los cromosomas están dentro del núcleo. Cuando la célula no está dividiéndose, los cromosomas, sólo se ven como una maraña de delgados filamentos que se denomina cromatina. El cuerpo más conspicuo del interior del núcleo es el nucleolo. En general hay dos nucleolos por núcleo, aunque muchas veces se ve uno solo en una micrografía. El nucleolo es el sitio donde se construyen las subunidades ribosómicas. Funciones del núcleo Los conocimientos actuales sobre el papel del núcleo en la vida de las células comenzaron con algunas de las primeras observaciones microscópicas. Una de las más importante fue realizada hace más de un siglo por el embriólogo alemán Oscar Hertwig con óvulos y espermatozoides del erizo de mar. Los erizos de mar producen grandes cantidades de óvulos y espermatozoides. Los óvulos son relativamente grandes y, por lo tanto, fáciles de observar. Se fecundan en el agua exterior y no en un medio interno, como sucede con los vertebrados terrestres. Mirando con su
185
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
microscopio como se fecundaban los óvulos, Hertwig notó que sólo se requería de un espermatozoide además a medida que el espermatozoide penetraba en el óvulo, su núcleo se liberaba y se fusionaba con el núcleo ovular. Esta observación confirmaba por otros hombres de ciencia y en otros tipos de organismo, fue importante, para establecer que el núcleo es el portador de la información hereditaria, el único vínculo entre el padre y los hijos es el núcleo del espermatozoide. Otro indicio de la importancia del núcleo surgió merced a las observaciones de Walther Flemming, también hace unos cien años, él observó la "danza de los cromosomas" que ocurre cuando las células eucarióticas se dividen y reconstruyó minuciosamente la sucesión de acontecimientos. Desde la época de Flemming se hicieron diversos experimentos para explorar el papel del núcleo celular. En un sencillo experimento se eliminó el núcleo de una ameba mediante microcirugía. La ameba dejó de dividirse y murió pocos días después, en cambio si en las 24 horas consecutivas a la eliminación del núcleo original se le implantaba el núcleo de otra ameba, la célula sobrevivía y se dividía con normalidad. A comienzo de la década del 1930 Joachim Hämmerling estudió las funciones comparativas del núcleo y del citoplasma, aprovechando algunas propiedades inusuales del alga marina Acetabularia. El cuerpo de Acetabularia consiste en una célula enorme de 2 a 5 centímetros de altura, él experimentó con esta alga e interpretó que estos resultados significan que bajo la dirección del núcleo se producen ciertas sustancias que determinan la forma del sombrero de la alga. Estas sustancias se acumulan en el citoplasma, razón por la cual el primer sombrero formado después de haber transplantado el núcleo tuvo una forma intermedia, pero para el momento en que se formó el segundo las sustancias determinantes del mismo que había en el citoplasma antes del transplante, se habían agotado y la forma del sombrero estuvo por completo bajo el control del nuevo núcleo. Estos experimentos indican que el núcleo desempeña dos funciones cruciales para la célula. Primero es el portador de la información hereditaria que determina las características de células hijas. Segundo, como indicaba el trabaja de Hämmerling, el núcleo ejerce una actividad incesante sobre las actividades de las células, asegurando que se sinteticen en las cantidades y tipos necesarios las moléculas complejas que la célula requiere Estructuras nucleares •
Jugo nuclear o cariolinfa: se encuentra encerrado dentro de la membrana nuclear, es un líquido en el se encuentran suspendidos los componentes principales del núcleo.
•
Nucléolo: en realidad el nucléolo no es una entidad estructural, sino una aglomeración de asas de cromatina de cromosomas distintos. Por ejemplo, 10 de 46 cromosomas humanos aportan tales asas de cromatina al nucleolo.
En el nucléolo se producen los ribosomas. Los ribosomas de las células eucarióticas se parecen a los de los procariotas en que consisten en dos subunidades, cada una constituida por ARN y proteínas, y en que en ellos se traduce ARNm a proteína, pero difieren en que los ribosomas eucarióticos son mucho mas grandes que los procarióticos y en sus proteínas individuales y sus ARN son distintos. Tres de los cuatro ARNr se transcriben en las asas del nucléolo. Las proteínas ribosómicas, que se traducen en el citoplasma a partir del ARNm, se mandan de nuevo al núcleo, donde se combinan con los ARNr. Luego las subunidades de los ribosomas se exportan hacia al citoplasma. El nucléolo no tiene membrana alguna.
186
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Pueden existir uno o más nucleolos por núcleo, estas estructuras son sumamente variables, ya que a menudo cambian de forma y tamaño. Cuando una célula se esta dividiendo los nucleolos suelen desaparecer y, luego, reaparecen rápidamente una vez que la división celular ha terminado. •
Membrana nuclear: es la membrana que rodea al núcleo y lo separa del protoplasma adyacente. Al igual que la membrana plasmática, está formada por protoplasma y es lipoproteica.
Regula la constante salida y entrada de sustancias al núcleo Esta membrana es doble y está atravesada por gran cantidad de pequeños poros, a través de los cuales pueden pasar algunas sustancias desde el núcleo al citoplasma y viceversa. •
Cromatina: está constituida por filamentos larguísimos, que en el "núcleo en reposo", cuando no se moviendo, parecen desenrollados o despiralizados y enredados unos con otros.
Están constituidos químicamente por ácido desoxirribonucleico (ADN) y proteínas. El ADN es la sustancia portadora de la información hereditaria y, controla las actividades celulares, es decir, dirige la vida de la célula. Cuando la célula va a dividirse, la cromatina se condensa, los filamentos se enrollan en espiral y se hacen muy visibles al microscopio óptico. A estas estructuras se les denominan cromosomas (cromo = color; soma = cuerpo). Estructura de un cromosoma: el cuerpo de un cromosoma recibe el nombre de brazo. El cromosoma presenta divisiones o entradas que se denominan constricciones. La constricción primaria se ubica en el punto donde se unen los brazos. Dentro de la constricción hay una zona clara, el centrómero. En ella se observan estructuras proteicas, los cinetocoros. Aparte de una constricción primaria hay a veces una constricción secundaria y un cuerpo redondo llamado satélite. Como dato interesante más de la mitad de la cromatina consiste en proteínas, estas proteínas son de centenares de tipos distintos. Biología molecular, se ocupa del estudio de la bases moleculares de la vida; es decir, relaciona las estructuras de las biomoléculas con las funciones específicas que desempeñan en la célula y en el organismo. La estructura del ADN La presentación del modelo estructural del ADN (ácido desoxirribonucleico) por Francis Harry Compton Crick y Watson en 1953, fue el verdadero inicio de la biología molecular. La importancia de este hecho se debe, por un lado a que es la molécula que transmite la información hereditaria de generación en generación (véase Genética), y por otro a que la propia estructura muestra cómo lo logra. El ADN es una molécula de doble hélice, compuesta por dos hebras complementarias unidas entre sí por puentes entre las bases: adenina (A), guanina (G), citosina (C) y timina (T). La A de una hebra se aparea siempre con la T de la hebra complementaria, y del mismo modo, la G con la C. Durante la replicación o duplicación, las dos hebras simples se separan y cada una de
187
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
ellas forma una nueva hebra complementaria, incorporando bases, la A se unirá a la T de la hebra molde, la G lo hará con la C y así sucesivamente. De esta manera se obtiene otra molécula de ADN, idéntica a la original y por tanto, el material genético se ha duplicado. Este material incluye toda la información necesaria para el control de las funciones vitales de las células y del organismo. Durante la división celular, las dos células hijas reciben igual dotación genética; de este mismo modo se reparte el material hereditario a la descendencia, cuando se reproduce un organismo. A partir del ADN se produce ARN y a partir del ARN se producen proteínas La copia precisa de la información genética contenida en el ADN nos lleva a la cuestión de cómo esta información modela las actividades de la célula. El siguiente paso necesario para la comprensión de este proceso fue el conocimiento de la transcripción, mecanismo mediante el cual, el ADN forma la molécula de ARN correspondiente, en forma de una hebra simple. Tal como ocurre en la replicación del ADN, la información genética se transcribe de forma fiel mediante la adición de bases complementarias. Después, el ARN mensajero (ARNm) se traslada a los orgánulos celulares llamados ribosomas, donde se lleva a cabo la traducción de proteínas. El código genético gobierna la traducción, que se basa en la correspondencia que existe entre 3 bases o triplete de la secuencia del ARN y un aminoácido específico de la secuencia proteica. El triplete ACC provoca la adición de treonina en la secuencia proteica que se está formando, CCC la de prolina y así sucesivamente. Por lo tanto la información contenida en la secuencia lineal de bases del ADN codifica la síntesis de una secuencia lineal de aminoácidos de una proteína. De tal manera, que un cambio en las bases del ADN conlleva un cambio en la proteína correspondiente. Por ejemplo, un cambio de la base A por C en el triplete ACC produciría la adición de prolina en lugar de treonina. Las proteínas son muy específicas, es decir tienen funciones biológicas muy concretas, con lo cual un cambio que afecte a la función que realizan, provocaría una alteración estructural o fisiológica en el organismo. Estas diferencias en la información genética del ADN, son las responsables de las diferencias heredadas entre individuos, tales como el color de ojos o las enfermedades genéticas como la hemofilia. A partir del ADN se sintetiza ARN y a partir del ARN se sintetizan proteínas, éste es el llamado "dogma central de la biología molecular". Clonación génica e hibridación Aunque el gran avance de la biología molecular fue durante la década de 1950, la verdadera expansión de esta ciencia comenzó en la década de 1960 con el descubrimiento de la clonación de genes. Esta técnica permitió aislar fragmentos libres de ADN puro a partir del genoma. Así, fue posible secuenciar fragmentos de ADN, en los cuales estaban incluidos los genes. Todo esto se completó con la puesta en marcha de la técnica de la hibridación, que consiste en el marcaje con isótopos radioactivos de una molécula clónica de ADN, de la cual se conserva sólo una hebra (ADN desnaturalizado o monocatenario). Después de este tratamiento, el fragmento sonda se emplea para detectar secuencias complementarias en presencia de ADN o ARN. Ed Southern, puso en marcha un procedimiento que se llama absorción de Southern y que se describe a continuación. Un ADN genómico que contiene un gen X, se corta en fragmentos que se separan según su tamaño, y se transfieren a un filtro. Al filtro con los fragmentos de ADN, se le aplica ARN o ADN marcado radiactivamente, de secuencia complementaria a la del gen X (fragmento sonda), que delatará al gen X al unirse a él. El método de absorción de Nothern es similar al anterior, el ADN que contiene el gen X, se une al ARN sonda de distintos tejidos, permitiendo así detectar el gen y cuantificarlo en los distintos tejidos. Estas técnicas han hecho posible recopilar una gran cantidad de información sobre la estructura y la expresión génica. Genes interrumpidos El empleo del método de absorción de Southern para el estudio de la estructura génica condujo a un importante hallazgo en el campo de la biología molecular. Este consiste en el descubrimiento de
188
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
la existencia, en los organismos eucariotas (plantas y animales), de regiones del ADN llamadas exones (que se expresan), que contienen información para la codificación de proteínas y están interrumpidas por otras secuencias del ADN, llamadas intrones (que no se expresan). Estos intrones se transcriben junto a los exones a moléculas de ARN y son eliminados durante el proceso de maduración del ARN. Este ocurre en el interior del núcleo celular y el resultado es una molécula de ARNm sin interrupciones, es decir, sólo con los exones. Este ARNm maduro se traslada al citoplasma celular y se une a los ribosomas, donde tiene lugar la traducción o síntesis de proteínas. El significado de los intrones no está claro, pero permiten diferentes combinaciones de los exones presentes en el ARN inmaduro, que se procesará de distinta manera según los tipos de células. Este sistema de maduración alternativa produce proteínas relacionadas pero diferentes a partir del mismo gen. Control de la transcripción La técnica de absorción de Nothern se puede emplear para detectar la presencia de moléculas de ARNm, procedentes de genes determinados, en extractos de tejido intacto. Estos estudios se complementan con la hibridación in situ, que detecta el ARNm en células individuales, y de esta forma se conoce su distribución en el tejido. La conclusión es que, en la mayoría de los casos, el ARNm codificador de una proteína específica, está presente sólo en los tejidos y en las células donde se expresa la proteína. De forma similar, los precursores inmaduros de moléculas de ARN que contengan aún intrones, no son detectados en los tejidos si no están presentes el ARNm o las proteínas. En consecuencia, en la mayoría de los casos, la producción de proteínas diferentes en los distintos tejidos está regulada por los genes que se han transcrito en cada tejido, lo cual determina a su vez la eliminación de intrones y la traducción de proteínas. Esto se demuestra midiendo la proporción de transcripción de un gen específico en diferentes tejidos, donde la proteína puede estar presente o ausente. La síntesis de proteínas distintas en los tejidos es vital para la comprensión de las diferencias funcionales de los mismos y está controlada por la transcripción. Además, la transcripción está regulada por factores de transcripción, los cuales se unen a secuencias específicas del ADN (las regiones reguladoras) y activan este proceso. Puede ser que cada tejido tenga los factores específicos que activan la transcripción de genes concretos, pero también es posible que estén presentes, de forma inactiva, en todas las células. En ese caso se activarían por señales específicas, como una modificación posterior a su síntesis, por ejemplo por adición de residuos fosfato (fosforilación). Esto activará la transcripción de los genes que respondan a la señal. Secuenciación del ADN Al igual que se estudia la expresión y la estructura de los genes se puede conocer, mediante el sistema de secuenciación de ADN, su orden lineal de bases. El método más utilizado fue ideado por Frederick Sanger en 1977 y en la actualidad se emplea en el Proyecto Genoma Humano, que intenta secuenciar por completo el genoma humano. Gracias a esta técnica se puede conocer, utilizando el código genético, la secuencia lineal de las cuatro bases, AGCT y por consiguiente, la secuencia de aminoácidos de la proteína correspondiente. Es más sencillo secuenciar el ADN que hacerlo en la proteína correspondiente, por lo tanto en la actualidad, la secuencia de aminoácidos se determina de forma indirecta a partir del gen correspondiente. La utilidad de este método se pone de manifiesto con el estudio de enfermedades genéticas. Se secuencia un gen involucrado en una enfermedad, en individuos sanos y en individuos enfermos y al comparar ambas secuencias se descubre la alteración de la proteína que provoca la enfermedad. La variación de
189
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
tan sólo una base puede provocar la sustitución de un aminoácido por otro, e incluso puede dañar un segmento del ADN, alterando así la porción correspondiente de proteína. Estructura y función de las proteínas La función biológica de una proteína está determinada por la secuencia de aminoácidos que la componen y por la configuración espacial (estructura plegada en el espacio). En la década de 1960, John Kendrew, propuso el modelo de estructura espacial de la mioglobina, a partir de la proteína purificada y mediante cristalografía de rayos X. A continuación, Max Peratz lo hizo con una molécula más compleja, la hemoglobina. La hemoglobina está compuesta por cuatro subunidades tipo mioglobina. Para conocer el orden de aminoácidos de una proteína se secuencia ADN, sin embargo, el análisis estructural de la misma se realiza sintetizando proteína a partir de un gen clónico (gen idéntico, que se inserta por ejemplo, en el genoma de una bacteria). De este modo se obtiene proteína en gran cantidad. Además se pueden introducir cambios específicos en el ADN genómico, mediante una mutación localizada, para que la bacteria sintetice una proteína alterada. Los estudios de proteínas alteradas, han logrado demostrar la relación de la secuencia de aminoácidos con la estructura y función de la proteína resultante.
Anatomía y fisiología Anatomía es el estudio de la estructura, situación y relaciones de las diferentes partes del cuerpo de animales o plantas. Anatomía (del griego, anatomē, ‘disección’), rama de las ciencias naturales relativa a la organización estructural de los seres vivos. Es una ciencia muy antigua, cuyos orígenes se remontan a la prehistoria. Durante siglos los conocimientos anatómicos se han basado en la observación de plantas y animales diseccionados. Sin embargo, la comprensión adecuada de la estructura implica un conocimiento de la función de los organismos vivos. Por consiguiente, la anatomía es casi inseparable de la fisiología, que a veces recibe el nombre de anatomía funcional. La anatomía, que es una de las ciencias básicas de la vida, está muy relacionada con la medicina y con otras ramas de la biología. Es conveniente subdividir el estudio de la anatomía en distintos aspectos. Una clasificación se basa según el tipo de organismo en estudio; en este caso las subdivisiones principales son la anatomía de las plantas y la anatomía animal. A su vez, la anatomía animal se subdivide en anatomía humana (ver más adelante) y anatomía comparada, que establece las similitudes y diferencias entre los distintos tipos de animales. La anatomía también se puede dividir en procesos biológicos, por ejemplo, anatomía del desarrollo (estudio de los embriones) y anatomía patológica o estudio de los órganos enfermos. Otras subdivisiones, como la anatomía quirúrgica y la anatomía artística (como por ejemplo en la obra Hombre de Vitruvio de Leonardo da Vinci), se basan en la relación de la anatomía con otras actividades bajo el título general de anatomía aplicada. Otra forma más de subdividir la anatomía depende de las técnicas empleadas, como por ejemplo la microanatomía, que se basa en las observaciones obtenidas con ayuda del microscopio (véase el apartado sobre historia de la anatomía).
Hay una obra extraordinaria "The vertebrate Body" by Alfred Sherwood Romer & Thomas S Parsons, de la que había traducción al español en Salvat (1981). Introduce el concepto de Neotenia, y datos por demás interesantes, como que los peces en su craneo poseen el mismo número de huesos que el Humano, etc.
Clasificación Anatomía animal Anatomía humana
190
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Anatomía vegetal
La fisiología (del griego physis, naturaleza, y logos, conocimiento, estudio) es la ciencia biológica que estudia las funciones de los cuerpos organizados.
En función del tipo de organismo vivo, podemos distinguir dos grandes grupos:
Fisiología vegetal Fisiología animal y dentro de ésta la humana
Anatomia y Fisiologia humana El cuerpo humano es un aglomerado de unos cincuenta billones de células, agrupadas en tejidos y organizadas en ocho aparatos (locomotor, respiratorio, digestivo, excretor, circulatorio, endocrino, nervioso y reproductor). Sus elementos constitutivos básicos podrían adquirirse en cualquier parte por un puñado de monedas, pero la vida que alberga estos átomos reunidos con un propósito concreto, lo convierten en un ser de valor incalculable, imposible de calcular con criterios terrenales. La célula, precisamente, es la unidad de la vida. Todas las células comparten unos elementos esenciales, como son la membrana protectora, el citoplasma, rico en organelas y el núcleo. El núcleo, es el cerebro organizador de la célula, pero sigue un plan general coordinado, escrito en 100.000 genes, ordenados en 23 pares de cromosomas. El organismo humano parece saber que de la unión nace la fuerza, pues las células se organizan en tejidos, órganos, aparatos y sistemas para realizar sus funciones. Existen cuatro tejidos básicos, que son el epitelial, el conjuntivo, el muscular y el nervioso, con los que el organismo se relaciona, se protege, secreta sustancias, mantiene su forma, se desplaza, coordina sus funciones y relaciones con el medio. A pesar de su enorme rendimiento, el cuerpo humano sigue en constante evolución, pero es un recién llegado al planeta. De hecho si se considera que la vida se instauro en la tierra hace 24 horas, el ser humano apenas ha vivido los últimos 3 segundos. (tiempo geológico). Anatomía Es la rama de las ciencias biológicas que trata de la forma y estructura de los organismos. Se halla íntimamente ligada con la fisiología Es una rama de las ciencias biológicas que trata de las funciones normales del cuerpo. Se emplean dos métodos especiales para el estudio de la anatomía, el sistemático y el topográfico. En el primero se considera el cuerpo formado por sistemas de órganos o aparatos que son similares por su origen y estructura y están asociados en la realización de ciertas funciones. Las divisiones de la anatomía sistematica son:
191
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Osteología: Descripción del esqueleto.
Artrología: Descripción de las articulaciones. Miología: Descripción de los musculos. Esplacnologia: se subdivide en: a. Sistema Digestivo b. Sistema Respiratorio c. Sistema Urogenital: que se divide en: * Órganos Urinarios * Órganos Genitales Angiología : Descripción de los órganos de la circulación. Neurología: Descripción del sistema nervioso. Estiología: Descripción de los órganos de los sentidos. El termino anatomía topográfica designa los métodos con que se determinan exactamente las posiciones relativas de varias partes del cuerpo, presupone un conocimiento de la anatomía sistemica. ANATOMÍA Y FISIOLOGÍA SISTEMICA SISTEMA OSTEOARTICULAR El cuerpo humano es una complicada estructura de más de doscientos huesos, un centenar de articulaciones y más de 650 musculos actuando coordinadamente.Gracias a la colaboración entre huesos y musculos, el cuerpo humano mantiene su postura, puede desplazarse y realizar múltiples acciones. El conjunto de huesos y cartílagos: forma el Esqueleto El hueso es un tejido sorprendente, ya que combina células vivas (osteocitos) y materiales inertes (sales de calcio). De esta unión, surge la fuerza, pero también la ligereza y la resistencia de los huesos. Los huesos se están renovando constantemente. Las funciones del esqueleto son múltiples: Sostiene al organismo y protege a los órganos delicados, a la vez que sirve de punto de inserción a los tendones de los musculos, Además, el interior de los huesos largos aloja la medula ósea, un tejido noble que fabrica glóbulos rojos y blancos. La cabeza esta constituida por el cráneo y la cara. Es una sucesión compleja de huesos que protegen el encéfalo y a otros órganos del sistema nervioso central. También da protección a los órganos de los sentidos, a excepción de el tacto que se encuentra repartido por toda la superficie de la piel. La Columna Vertebral es un pilar recio, pero un poco flexible, formada por una treintena de vértebras que cierra por detrás la caja torácica. En la porción dorsal de la columna, se articula con las costillas.
192
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
El tórax es una caja semirrigida que colabora activamente durante la respiración. En el cuerpo humano existen 208 huesos : 26 en la columna vertebral 8 en el cráneo 14 en la cara 8 en el oído 1 hueso Hioides 25 en el tórax 64 en los miembros superiores 62 en los miembros inferiores Hay varios tipos de huesos : Largos, como los del brazo o la pierna Cortos, como los de la muñeca o las vértebras
193
2012
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Planos, como los de la cabeza Algunas características:
son duros. Están formados por una substancia blanda llamada osteina y por una sustancia dura formada por sales minerales de calcio.Los huesos largos tienen en su parte media un canal central relleno de médula amarilla, y las cabezas son esponjosas y están llenas de médula roja. Su función : Dar consistencia al cuerpo. Ser el apoyo de los musculos y producir los movimientos. Sirven como centro de maduración de eritrocitos (glóbulos rojos). División Del Cuerpo Humano Para El Estudio Del Sistema Óseo: El cuerpo humano se divide de la siguiente manera para que sea mas comprensible y universal : Cabeza Tronco Extremidades Huesos De La Cabeza Los huesos del Cráneo son 8 y forman una caja resistente para proteger el cerebro. Los huesos de la cara son 14. Entre ellos los mas importantes son los Maxilares (Superior e inferior) que se utilizan en la masticación. Huesos Del Tronco La clavícula y el omóplato, que sirven para el apoyo de las extremidades superiores. Las costillas que protegen a los pulmones, formando la caja toraxica. El esternón, donde se unen las costillas de ambos lados. (anterior) Las vértebras, forman la columna vertebral y protegen la médula espinal, también articulan las costillas. (posterior) La Pelvis (ilion, isquión y pubis), en donde se apoyan las extremidades inferiores.
194
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
Huesos De Las Extremidades Superiores Clavícula, omoplato y humero formando la articulación del hombro El húmero en el brazo. El Cúbito y el Radio en el antebrazo. El carpo, formado por 8 huesecillos de la muñeca. Los metacarpianos en la mano . Las falanges en los dedos. Huesos De Las Extremidades Inferiores La pelvis y el fémur formando la articulación de la cadera El fémur en el muslo La rótula en la rodilla. La tibia y el peroné, en la pierna El tarso, formado por 7 huesecillos del talón. El metatarso en el pie Las falanges en los dedos. Las Articulaciones
195
2012
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Son las uniones entre los huesos. Unas son fijas y se llaman suturas (Las de los huesos del cráneo) Semimóviles: las de las vértebras entre ellas están los discos invertebrales. móviles: las del codo y la rodilla. En este caso, para evitar el roce entre los huesos, éstos terminan en un cartílago articular rodeado de una bolsa o cápsula sinovial, llena de un líquido aceitoso llamado Sinovia, que actúa como lubrificante y amortiguador del roce. entre las dos cápsulas esta el Menisco articular. Hay un hueso suelto a nivel de la base de la lengua; llamado hioides, en la que sustenta en sus movimientos. SISTEMA DIGESTIVO El aparato digestivo es un largo tubo, con importantes glándulas empotradas, que transforma las complejas moléculas de los alimentos en sustancias simples y fácilmente utilizables por el organismo. Estos compuestos nutritivos simples son absorbidos por las vellosidades intestinales, que tapizan el intestino delgado. Así pues, pasan a la sangre y nutren todas y cada una de las células del organismo
196
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Desde la boca hasta el ano, el tubo digestivo mide unos once metros de longitud. En la boca ya empieza propiamente la digestión. Los dientes trituran los alimentos y las secreciones de las glándulas salivales los humedecen e inician su descomposición química. Luego, el bolo alimenticio cruza la faringe, sigue por el esófago y llega al estomago, una bolsa muscular de litro y medio de capacidad, cuya mucosa secreta el potente jugo gástrico, en el estomago, el alimento es agitado hasta convertirse en una papilla llamada quimo. A la salida del estomago, el tubo digestivo se prolonga con el intestino delgado, de unos siete metros de largo, aunque muy replegado sobre si mismo. En su primera porción o duodeno recibe secreciones de las glándulas intestinales, la bilis y los jugos del páncreas. Todas estas secreciones contienen una gran cantidad de enzimas que degradan los alimentos y los transforma en sustancias solubles simples. El tubo digestivo continua por el intestino grueso, de algo mas de metro y medio de longitud. Su porción final es el recto, que termina en el ano, por donde se evacuan al exterior los restos indigeribles de los alimentos. Descripción Anatómica Para Observar un torso con la disposición de los órganos pulsa Aqui El tubo digestivo está formado por:
197
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
boca, esófago, estómago, intestino delgado que se divide en duodeno, yeyuno, íleon. El intestino grueso que se compone de: ciego y apéndice, colon y recto.
El hígado (con su vesícula Biliar) y el páncreas forman parte del aparato digestivo, aunque no del tubo digestivo. Esófago : El esófago es un conducto musculo membranoso que se extiende desde la faringe hasta el estómago. De los incisivos al cardias porción donde el esófago se continua con el estómago hay unos 40 cm. El esófago empieza en el cuello, atraviesa todo el tórax y pasa al abdomen a través del hiato esófagico del diafragma. Habitualmente es una cavidad virtual. (es decir que sus paredes se encuentran unidas y solo se abren cuando pasa el bolo alimenticio). Estómago : El estómago es un órgano que varia de forma según el estado de repleción (cantidad de contenido alimenticio presente en la cavidad gástrica) en que se halla, habitualmente tiene forma de J. Consta de varias partes que son : Fundos, cuerpo, antro y pìloro. Su borde menos extenso se denomina curvatura menor y la otra curvatura mayor. El cardias es el limite entre el esófago y el estomago y el piloro es el limite entre estómago y duodeno. En un individuo mide aproximadamente 25cm del cardias al pìloro y el diámetro transverso es de 12cm. Intestino delgado: El intestino delgado se inicia en el pìloro y termina en la válvula ileoceal, por la que se une a la primera parte del intestino grueso. Su longitud es variable y su calibre disminuye progresivamente desde su origen hasta la válvula ileocecal. El duodeno, que forma parte del intestino delgado, mide unos 25 - 30 cm de longitud; el intestino delgado consta de una parte próxima o yeyuno y una distal o íleon; el limite entre las dos porciones no es muy aparente. El duodeno se une al yeyuno después de los 30cm a partir del piloro. El yeyuno-ìleon es una parte del intestino delgado que se caracteriza por presentar unos extremos relativamente fijos: El primero que se origina en el duodeno y el segundo se limita con la válvula ileocecal y primera porción del ciego. Su calibre disminuye lenta pero progresivamente en dirección al intestino grueso. El limite entre el yeyuno y el íleon no es apreciable. Intestino grueso: El intestino grueso se inicia a partir de la válvula ileocecal en un fondo de saco denominado ciego de donde sale el apéndice vermiforme y termina en el recto. Desde el ciego al recto describe una serie de curvas, formando un marco en cuyo centro están las asas del yeyunoìleon. Su longitud es variable, entre 120 y 160 cm, y su calibre disminuye progresivamente, siendo la porción más estrecha la región donde se une con el recto o unión rectosigmoidea donde su diámetro no suele sobrepasar los 3 cm, mientras que el ciego es de 6 o 7 cm. En el intestino grueso se diferencian varias porciones entre ellas tenemos: La primera porción que esta constituida por un saco ciego, situada inferior a la válvula ileocecal y que da origen al apéndice vermicular. La segunda porción es denominada como colon ascendente con una longitud de 15cm, para dar origen a la tercera porción que es el colon transverso con una
198
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
longitud media de 50cm, originándose una cuarta porción que es el colon descendente con 10cm de longitud, por ultimo se diferencia el colon sigmoideo, recto y ano. El recto es la parte terminal del tubo digestivo. Es la continuación del colon sigmoideo y termina abrièndose al exterior por el orificio anal. Páncreas : Es una glándula íntimamente relacionada con el duodeno, el conducto excretor del páncreas, que termina reunièndose con el colèdoco a través de la ampolla de Vater, sus secreciones son de importancia en la digestión de los alimentos. Hígado : Es la mayor viscera del cuerpo pesa 1500 gms Consta de dos lóbulos. Las vías biliares son las vías excretoras del hígado, por ellas la bilis es conducida al duodeno. normalmente salen dos conductos: derecho e izquierdo, que confluyen entre sì formando un conducto único. el conducto hepático, recibe un conducto más fino, el conducto cìstico, que proviene de la vesícula biliar alojada en la cara visceral de hígado. De la reunión de los conductos cìstico y el hepático se forma el colèdoco, que desciende al duodeno, en la que desemboca junto con el conducto excretor del páncreas. La vesícula biliar es un reservorio musculomembranoso puesto en derivación sobre las vías biliares principales. No suele contener mas de 50-60 cm de bilis. Es de forma ovalada o ligeramente piriforme y su diámetro mayor no es de 8 a 10 cm . Bazo: El bazo, por sus principales funciones se debería considerar un órgano del sistema circulatorio. Su tamaño depende de la cantidad de sangre que contenga. Fisiología Del Tubo Digestivo: El tubo digestivo se encarga de la digestión de los alimentos ingeridos, para que puedan ser utilizados por el organismo. El proceso de digestión comienza en la boca, donde los alimentos son cubiertos por la saliva, triturados y divididos por la acción de la masticación y una vez formado el bolo , deglutidos. El estomago no es un órgano indispensable para la vida, pues aunque su extirpación en hombres y animales causa ciertos desordenes digestivos, no afecta fundamentalmente la salud. En el hombre, la función esencial del estomago es reducir los alimentos a una masa semifluida de consistencia uniforme denominada quimo, que pasa luego al duodeno. El estomago también actúa como reservorio transitorio de alimentos y por al acidez de sus secreciones, tiene una cierta acción antibacteriana. El quimo pasa el piloro a intervalos y penetra al duodeno donde es transformado por las secreciones del páncreas, intestino delgado e hígado; continuándose su digestión y absorción. El quimo sigue progresando a través del intestino delgado hasta llegar al intestino grueso. La válvula ileocecal obstaculiza el vaciamiento demasiado rápido del intestino delgado e impide el reflujo del contenido del intestino grueso al intestino delgado. La principal función del intestino grueso es la formación, transporte y evacuación de las heces. Una función muy importante es la absorción de agua. En el ciego y el colon ascendentes las materias fecales son casi liquidas y es allí donde se absorbe la mayor cantidad de agua y algunas sustancias disueltas, pero aun en regiones mas dístales (recto y colon sigmoideo) se absorben líquidos.
199
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Las heces permanecen en el colon hasta el momento de la defecación. SISTEMA MUSCULAR
Los musculos son los motores del movimiento. Un musculo, es un haz de fibras, cuya propiedad mas destacada es la contractilidad. Gracias a esta facultad, el paquete de fibras musculares se contrae cuando recibe orden adecuada. Al contraerse, se acorta y se tira del hueso o de la estructura sujeta. Acabado el trabajo, recupera su posición de reposo. Los musculo estriados son rojos, tienen una contracción rápida y voluntaria y se insertan en los huesos a través de un tendón, por ejemplo, los de la masticación, el trapecio, que sostiene erguida la cabeza, o los gemelos en las piernas que permiten ponerse de puntillas. Por su parte los musculos lisos son blanquecinos, tapizan tubos y conductos y tienen contracción lenta e involuntaria. Se encuentran por ejemplo, recubriendo el conducto digestivo o los vasos sanguíneos (arterias y venas). El musculo cardiaco es un caso especial, pues se trata de un musculo estriado, de contracción involuntaria. El cuerpo humano se cubre de unos 650 musculos de acción voluntaria. Tal riqueza muscular permite disponer de miles de movimientos. Hay musculos planos como el recto del abdomen, en forma de huso como el bíceps o muy cortos como los interoseos del metacarpo. Algunos musculos son muy grandes, como el dorsal en la espalda, mientras otros muy potentes como el cuadriceps en el muslo. Además los musculos sirven como protección a los órganos internos así como de dar forma al organismo y expresividad al rostro. Los musculos son conjuntos de células alargadas llamadas fibras. Están colocadas en forma de haces que a su vez están metidos en unas vainas conjuntivas que se prolongan formando los tendones, con lo que se unen a los huesos. Su forma es variable. La más típica es la forma de huso (gruesos en el centro y finos en los extremos). Sus Propiedades : Son blandos. Pueden deformarse. Pueden contraerse. Su misión esencial es mover las diversas partes del cuerpo apoyàndose en los huesos. En el cuerpo humano hay más de 650 musculos. Para Observar un dibujo del sistema muscular pulsa Aqui Para Observar un gráfico del sistema muscular, con todos sus nombres pulsa Aqui Los más importantes son : En la Cabeza Los que utilizamos para masticar, llamados Maceteros.
200
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El mùsculo que permite el movimiento de los labios cuando hablamos: Orbicular de los labios. Los que permiten abrir o cerrar los párpados : Orbiculares de los ojos. Los que utilizamos para soplar o silbar, llamados Bucinadores. En el Cuello Los que utilizamos para doblar la cabeza hacia los lados o para hacerla girar : se llaman Esterno cleido - mastoideos. Los que utilizamos para moverla hacia atrás: Esplenio. En El Tronco. (Visión Posterior). Los utilizados en la respiración : Intercostales, Serratos, en forma de sierra, el diafragma que separa el tórax del abdomen. Los pectorales, para mover el brazo hacia adelante y los dorsales, que mueven el brazo hacia atrás. Los trapecios, que elevan el hombro y mantienen vertical la cabeza.
En Los Brazos El Deltiodes que forma el hombro.
201
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El Biceps Braquial que flexiona el antebrazo sobre el brazo. El Tríceps Branquial que extiende el antebrazo.
Los pronadores y supinadores hacen girar la muñeca y la mano. (Antebrazo) Los flexores y extensores de los dedos. Musculos de la Mano En Las Extremidades Inferiores Los gluteos que forman las nalgas. El sartorio que utilizamos para cruzar una pierna sobre la otra. El Bíceps crural está detrás, dobla la pierna por la rodilla. El tríceps está delante, extiende la pierna. Los gemelos son los que utilizamos para caminar, forman la pantorrilla, terminan en el llamado tendón de Aquiles. Los flexores y extensores de los dedos. (musculos del pie) Hay Dos Clases De Musculos Los que hemos citado, cuya contracción puede ser rápida y Voluntaria : Se llaman musculos estriados o rojos. Los musculos intestinales de contracción lenta e involuntaria; son los llamados musculos lisos y blancos. Los musculos realizan el trabajo de extensión y de flexión, para aquello tiran de los huesos, que hacen de palancas. Otro efecto de trabajo de los musculos es la producción de calor. Para ello regulan el funcionamiento de centros nerviosos. En ellos se reciben las sensaciones, para que el sistema nervioso elabore las respuestas conscientes a dichas sensaciones. Los musculos gastan mucho oxigeno y glucosa, cuando el esfuerzo es muy fuerte y prolongado, provocando que los musculos no alcancen a satisfacer sus necesidades, dan como resultado los calambres y fatigas musculares por acumulación de toxinas musculares, estos estados desaparecen con descanso y masajes que activen la circulación, para que la sangre arrastre las toxinas presentes en la musculatura SISTEMA NERVIOSO El sistema nervioso es el rector y coordinador de todas las funciones, conscientes e inconscientes del organismo, consta del sistema cerebroespinal (encéfalo y medula espinal), los nervios y el sistema vegetativo o autónomo.
202
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
A menudo, se compara el sistema nervioso con un computador: porque las unidades periféricas (órganos internos u órganos de los sentidos) aportan gran cantidad de información a través de los cables de transmisión (nervios) para que la unidad de procesamiento central (cerebro), provista de su banco de datos (memoria), la ordene, la analice, muestre y ejecute. Sin embargo, la comparación termina aquí, en la mera descripción de los distintos elementos. La informática avanza a enormes pasos, pero aun esta lejos el día que se disponga de un ordenador compacto, de componentes baratos y sin mantenimiento, capaz de igualar la rapidez, la sutileza y precisión del cerebro humano. El sistema nervioso central realiza las mas altas funciones, ya que atiende y satisface las necesidades vitales y da respuesta a los estímulos. Ejecuta tres acciones esenciales, que son la detección de estímulos, la transmisión de informaciones y la coordinación general.
El Cerebro es el órgano clave de todo este proceso. Sus diferentes estructuras rigen la sensibilidad, los movimientos, la inteligencia y el funcionamiento de los órganos. Su capa mas externa, la corteza cerebral, procesa la información recibida, la coteja con la información almacenada y la transforma en material utilizable, real y consciente. El Sistema Nervioso es la relación entre nuestro cuerpo y el exterior, además regula y dirige el funcionamiento de todos los órganos del cuerpo. Las Neuronas: son la unidad funcional del sistema nervioso, por ellas pasan los impulsos nerviosos.
203
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
División del Sistema Nervioso Genéricamente se divide en:
· Sistema Nervioso Central S.N.C · Sistema Nervioso Autónomo S.N.A El Sistema Nervioso Central se divide en Encéfalo, Medula y Nervios Periféricos. El Encéfalo: Es la masa nerviosa contenida dentro del cráneo. esta envuelta por las meninges, que son tres membranas llamadas: duramadre, piamadre y aracnoides. El encéfalo consta de tres partes:
Cerebro, Cerebelo y Bulbo Raquídeo. El Cerebro: Es la parte mas importante, esta formado por la sustancia gris (por fuera) y la sustancia blanca (por dentro), su superficie no es lisa sino que tienes unas arrugas o salientes llamadas circunvoluciones; y unos surcos denominados cisuras, las mas notables son llamadas las cisuras de Silvio y de Rolando. Esta dividido incompletamente por una hendidura en dos partes, llamados hemisferios cerebrales. En los hemisferios se distinguen zonas denominadas lóbulos, que llevan el nombre del hueso en que se encuentran en contacto. Pesa unos 1.200gr Dentro de sus principales funciones están las de controlar y regular el funcionamiento de los demás centros nerviosos, también en el se reciben las sensaciones y se elaboran las respuestas conscientes a dichas situaciones. Es el órgano de las facultades intelectuales: atención, memoria ...etc.
204
El cerebelo::
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Esta situado detrás del cerebro y es más pequeño (120 gr.); tiene forma de una mariposa con las alas extendidas. Consta de tres partes: Dos hemisferios cerebelosos y el cuerpo vermiforme. Por fuera tiene sustancia gris y en el interior sustancia blanca, esta presenta una forma arborescente por lo que se llama el árbol de la vida.Coordina los movimientos de los musculos al caminar. El Bulbo Raquídeo: Es la continuación de la medula que se hace más gruesa al entrar en el cráneo. Regula el funcionamiento del corazón y de los musculos respiratorios, además de los movimientos de la masticación, la tos, el estornudo, el vomito ... etc. Por eso una lesión en el bulbo produce la muerte instantánea por paro cardio- respiratorio irreversible. La Medula Espinal: La medula espinal es un cordón nervioso, blanco y cilíndrico encerrada dentro de la columna vertebral.Su función más importante es conducir, mediante los nervios de que está formada, la corriente nerviosa que conduce las sensaciones hasta el cerebro y los impulsos nerviosos que lleva las respuestas del cerebro a los musculos. Los Nervios Son cordones delgados de sustancia nerviosa que se ramifican por todos los órganos del cuerpo. Unos salen del encéfalo y se llaman nervios craneales. Otros salen a lo largo de la medula espinal:
Son los nervios raquídeos. La Memoria, Inteligencia Y Sueño La inteligencia es la capacidad de adaptarse a las situaciones nuevas. De hecho, no se trata de una habilidad fija, sino mas bien una suma de facultades relacionadas, otorgados por la corteza cerebral, la capa nerviosa que recubre todo el cerebro humano. Tanto la definición de la inteligencia como la medición han suscitado siempre recelos y criticas. Sin embargo, muchos tests de inteligencia establecen su puntuación a partir de un promedio, al que se ha dado un valor 100. así, se determina que el 70% de la población posee un cociente intelectual (CI) normal, situado entre 85 y 115. Una buena herencia y un ambiente propicio son dos circunstancias esenciales para que una persona pueda desarrollar todo su potencial intelectual.
205
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
La memoria es otra facultad maravillosa del cerebro humano, pues permite registrar datos y sensaciones, revivirlos a voluntad después de minutos o años después. La memoria es una sola, pero se distinguen tres niveles, según cuanto tiempo se recuerda una información, esta es la memoria inmediata, de solo unos segundos, la memoria a corto plazo, de unas horas a unos pocos días, y la memoria a largo plazo, en que los datos se graban a fuego y pueden recordarse toda la vida. Inteligencia y memoria son dos facultades que un cerebro soñoliento realiza a duras penas y sin ningún lucimiento. El sueño es imprescindible para vivir, en especial el sueño profundo, en que el cuerpo se abandona a la relajación y el cerebro se enfrasca en una frenética actividad onírica (actividad de los sueños y pesadillas). SISTEMA CIRCULATORIO La sangre es el fluido que circula por todo el organismo a través del sistema circulatorio, formado por el corazón y los vasos sanguíneos. De hecho, la sangre describe dos circuitos complementarios. En la circulación pulmonar o circulación menor la sangre va del corazón a los pulmones, donde se oxigena o se carga con oxigeno y descarga el dioxido de carbono. En la circulación general o mayor, la sangre da la vuelta a todo el cuerpo antes de retornar al
corazón. Los Vasos sanguíneos (arterias, capilares y venas) son conductos musculares elásticos que distribuyen y recogen la sangre de todos los rincones del cuerpo. El Corazón es un musculo hueco, del tamaño del puño (relativamente), encerrado en el centro del pecho. Como una bomba, impulsa la sangre por todo el organismo. realiza su trabajo en fases sucesivas. Primero se llenan las cámaras superiores o aurículas, luego se contraen, se abren las válvulas y la sangre entra en las cavidades inferiores o ventrículos. Cuando están llenos, los ventrículos se contraen e impulsan la sangre hacia las arterias. El corazón late unas setenta veces por minuto y bombea todos los días unos 10.000 litros de sangre.
206
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
La sangre es un tejido liquido, compuesto por agua, sustancias disueltas y células sanguíneas. Los glóbulos rojos o hematies se encargan de la distribución del oxigeno; los glóbulos blancos efectúan trabajos de limpieza (fagocitos) y defensa (linfocitos), mientras que las plaquetas intervienen en la coagulación de la sangre. Una gota de sangre contiene unos 5 millones de glóbulos rojos, de 5.000 a 10.000 glóbulos blancos y alrededor de 250.000 plaquetas. El aparato circulatorio sirve para llevar los alimentos y el oxigeno a las células, y para recoger los desechos que se han de eliminar después por los riñones, pulmones, etc. De toda esta labor se encarga la sangre, que está circulando constantemente.
La Sangrees un liquido rojo, viscoso de sabor salado y olor especial. En ella se distinguen las siguientes partes : el plasma, los glóbulos rojos, los glóbulos blancos y las plaquetas. El plasma sanguíneo es la parte liquida, es salado de color amarillento y en él flotan los demás componentes de la sangre, también lleva los alimentos y las sustancias de desecho recogidas de las células. El plasma cuando se coagula la sangre, origina el suero sanguíneo. Los Glóbulos Rojos o Hematies tienen forma de discos y son tan pequeños que en cada milímetro cúbico hay cuatro a cinco millones, miden unas siete micras de diámetro, no tienen núcleo por eso se consideran células muertas, tiene un pigmento rojizo llamado hemoglobina que les sirve para transportar el oxigeno desde los pulmones a las células.
207
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Los Glóbulos Blancos o Leucocitos Son mayores pero menos numerosos (unos siete mil por milímetro cúbico), son células vivas que se trasladan, se salen de los capilares y se dedican a destruir los microbios y las células muertas que encuentran por el organismo. También producen antitoxinas que neutralizan los venenos de los microorganismos que producen las enfermedades. Las Plaquetas Son células muy pequeñas, sirven para taponar las heridas y evitar hemorragias. Partes Del Aparato Circulatorio Consta de : Un órgano central, el corazón y un sistema de tubos o vasos, las arterias, los capilares y las venas. Corazón Es un órgano hueco y musculoso del tamaño de un puño, rodeado por el Pericardio. Situado entre los pulmones, dividido en cuatro cavidades : dos Aurículas y dos Ventrículos. Entre la Aurícula y el Ventrículo derecho hay una válvula llamada tricúspide, entre Aurícula y Ventrículo izquierdos está la válvula mitral. Las gruesas paredes del corazón forman el Miocardio. Las Arterias Son vasos gruesos y elásticos que nacen en los Ventrículos aportan sangre a los órganos del cuerpo por ellas circula la sangre a presión debido a la elasticidad de las paredes. Del corazón salen dos Arterias : Arteria Pulmonar que sale del Ventrículo derecho y lleva la sangre a los pulmones. Arteria Aorta sale del Ventrículo izquierdo y se ramifica, de esta ultima arteria salen otras principales entre las que se encuentran: Las caròtidas: Aportan sangre oxigenada a la cabeza. Subclavias: Aportan sangre oxigenada a los brazos. Hepática: Aporta sangre oxigenada al hígado. Esplènica: Aporta sangre oxigenada al bazo. Mesentèricas: Aportan sangre oxigenada al intestino. Renales: Aportan sangre oxigenada a los riñones. Ilíacas: Aportan sangre oxigenada a las piernas. Para Observar como se superponen las arterias a los huesos pulsa Aqui
208
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Los Capilares Son vasos sumamente delgados en que se dividen las arterias y que penetran por todos los órganos del cuerpo, al unirse de nuevo forman las venas. Las Venas Son vasos de paredes delgadas y poco elásticas que recogen la sangre y la devuelven al corazón, desembocan en las Aurículas. En la Aurícula derecha desembocan : La Cava superior formada por las yugulares que vienen de la cabeza y las subclavias (venas) que proceden de los miembros superiores. La Cava inferior a la que van las Ilíacas que vienen de las piernas, las renales de los riñones, y la suprahèpatica del hígado. La Coronaria que rodea el corazón. En la Aurícula izquierda desemboca las cuatro venas pulmonares que traen sangre desde los pulmones y que curiosamente es sangre arterial. · Para Observar un gráfico con las venas y arterias del cuerpo pulsa aqui Funcionamiento Del Corazón
209
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El corazón tiene dos movimientos :
Uno de contracción llamado Sístole y otro de dilatación llamado Diástole. Pero la Sístole y la Diástole no se realizan a la vez en todo el corazón, se distinguen tres tiempos : Sístole Auricular : se contraen las Aurículas y la sangre pasa a los ventrículos que estaban vacíos. Sístole Ventricular : los ventriculos se contraen y la sangre que no puede volver a las aurículas por haberse cerrado las válvulas bicúspide y tricúspide, sale por las arterias pulmonar y aorta. Estas también tienen sus válvulas llamadas válvulas sigmoideas, que evitan el reflujo de la sangre. Diástole general : Las Aurículas y los Ventrículos se dilatan y la sangre entran de nuevo a las aurículas. Los golpes que se producen en la contracción de los Ventrículos originan los latidos, que en el hombre oscilan entre 70 y 80 latidos por minuto. El Sistema Linfático La linfa es un liquido incoloro formado por plasma sanguíneo y por glóbulos blancos, en realidad es la parte de la sangre que se escapa o sobra de los capilares sanguíneos al ser estos porosos. Las venas linfáticas tienen forma de rosario por las muchas válvulas que llevan, también tienen unos abultamientos llamados ganglios que se notan sobre todo en las axilas, ingle, cuello etc. En ellos se originan los glóbulos blancos. SISTEMA RESPIRATORIO La respiración es un proceso involuntario y automático, en que se extrae el oxigeno del aire inspirado y se expulsan los gases de desecho con el aire espirado. El aire se inhala por la nariz, donde se calienta y humedece. Luego, pasa a la faringe, sigue por la laringe y penetra en la traquea. A la mitad de la altura del pecho, la traquea se divide en dos bronquios que se dividen de nuevo, una y otra vez , en bronquios secundarios, terciarios y, finalmente, en unos 250.000 bronquiolos. Al final de los bronquiolos se agrupan en racimos de alvéolos, pequeños sacos de aire, donde se realiza el intercambio de gases con la sangre. Los pulmones contienen aproximadamente 300 millones de alvéolos, que desplegados ocuparían una superficie de 70 metros cuadrados, unas 40 veces la extensión de la piel. La respiración cumple con dos fases sucesivas, efectuadas gracias a la acción muscular del diafragma y de los musculos intercostales, controlados todos por el centro respiratorio del bulbo raquídeo. En la inspiración, el diafragma se contrae y los musculos intercostales se elevan y ensanchan las costillas. La caja torácica gana volumen y penetra aire del exterior para llenar este espacio.
210
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Durante la espiración, el diafragma se relaja y las costillas descienden y se desplazan hacia el interior. La caja torácica disminuye su capacidad y los pulmones dejan escapar el aire hacia el exterior. Proporciona el oxigeno que el cuerpo necesita y elimina el Diòxido de Carbono o . gas carbònico que se produce en todas las células. Consta de dos partes : Vías respiratorias Pulmones
Las Vías Respiratorias Están formadas por la boca y las fosas nasales, la faringe, la laringe, la traquea, los bronquios y los bronquiolos. La Laringe es el órgano donde se produce la voz, contiene las cuerdas vocales y una especie de tapón llamado epiglotis para que los alimentos no pasen por las vías respiratorias.
211
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
La traquea es un tubo formado por unos veinte anillos cartilaginosos que la mantienen siempre abierta, se divide en dos ramas: los Bronquios. Los Bronquios y los Bronquiolos son las diversas ramificaciones del interior del pulmón, terminan en unos sacos llamadas alvéolos pulmonares que tienen a su vez unas bolsas más pequeñas o vesículas pulmonares, están rodeadas de una multitud de capilares por donde pasa la sangre y se purifica y se realiza el intercambio gaseoso. Los pulmones son dos masas esponjosas de color rojizo, situadas en el tórax a ambos lados del corazón, el derecho tiene tres partes o lóbulos; el izquierdo tiene dos partes. La Pleura Es una membrana de doble pared que rodea a los pulmones.
Respiración Consiste en tomar oxigeno del aire y desprender el diòxido de carbono que se produce en las células. Tienen tres fases : 1. Intercambio en los Pulmones. 2. El transporte de gases.
212
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
3. La respiración en las células y tejidos. El Intercambio En Los Pulmones
El aire entra en los pulmones y sale de ellos mediante los movimientos respiratorios que son dos: En la Inspiración el aire penetra en los pulmones porque estos se hinchan al aumentar el volumen de la caja torácica. Lo cual es debido a que el diafragma desciende y las costillas se levantan. En la espiración el aire es arrojado al exterior ya que los pulmones se comprimen al disminuir de tamaño la caja torácica, pues el diafragma y las costillas vuelven a su posición normal.
Respiramos unas 17 veces por minuto y cada vez introducimos en la respiración normal ½ litro de aire. El número de inspiraciones depende del ejercicio, de la edad etc. la capacidad pulmonar de una persona es de cinco litros. A la cantidad de aire que se pueda renovar en una inspiración forzada se llama capacidad vital; suele ser de 3,5 litros. Cuando el aire llega a los alvéolos, parte del oxigeno que lleva atraviesa las finisimas paredes y pasa a los glóbulos rojos de la sangre. Y el diòxido de carbono que traía la sangre pasa al aire, así la sangre venenosa se convierte en sangre arterial esta operación se denomina hematosis. Transporte De Los Gases El oxigeno tomado en los alvéolos pulmonares es llevado por los glóbulos rojos de la sangre hasta el corazón y después distribuido por las arterias a todas las células del cuerpo. El diòxido de carbono es recogido en parte por los glóbulos rojos y parte por el plasma y transportado por las venas cavas hasta el corazón y de allí es llevado a los pulmones para ser arrojado al exterior. La Respiración De Las Células Toman el oxigeno que les lleva la sangre y/o utilizan para quemar los alimentos que han absorbido, allí producen la energía que el cuerpo necesita y en especial el calor que mantiene la temperatura del cuerpo humano a unos 37 grados.
213
Genética
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
La genética es la parte de la Biología que trata de la herencia y de todo lo relacionado con ella. La genética se basa en el estudio de genes, hechos de ADN (ácido desoxirribonucleico).
Teorías de la herencia Preformismo: Se decía que los gametos tenían un pequeño hombrecillo, que al fecundarse éste aumentaba de tamaño. Los científicos que creían que el hombrecillo se encontraba en el gameto masculino, se llamaban espermatistas; mientras que los que creían que se encontraba en el femenino se denominaban ovistasEpigénesis: Afirmaba que en los gametos de ambos sexos se encontraba un fluido, que luego de la fecundación se fusionaban, originando distintos órganos para formar al embrión. Pangénesis: Teoría postulada por Aristóteles que mencionaba que cada órgano y estructura del cuerpo produce pequeños sedimentos llamados gémulas, que por vía sanguínea llegaban a los gametos. El individuo se formaría gracias a la fusión de las gémulas de las células. • • • •
Mitosis Meiosis Genotipo Fenotipo
Las teorías de la herencia datan ya de los siglos V y IV a.C., la genética (el estudio científico de la herencia) no comenzó realmente hasta los siglos XVIII y XIX. Se observó la transmisión de generación en generación de determinados caracteres de vegetales y animales a fin de proporcionar una base racional para mejorar los cultivos y el ganado. Pero a medida que el tiempo avanzaba se fue estudiando y analizando el tema con los seres vivos. Pero si analizamos tiempo atrás, el avance más significativo en el campo de la genética se debió al monje austriaco Gregor Mendel (1822 - 1884), que observó ciertas características específicas de la planta del guisante y contó la cantidad de individuos en los que aparecían estos rasgos a lo largo de varias generaciones. Concentrándose en apenas algunos caracteres y determinando en que proporción de cada generación estaban presentes, consiguió demostrar patrones específicos de herencia. El carácter discreto y la segregación independiente de las características genéticas que observó se conocieron como “leyes de la herencia de Mendel” , y se aplican a la mayoría de los sistemas genéticos. Con el tiempo surgió la clonación, el cual es un proceso por el cual un organismo produce descendientes con la misma información genética y que por lo tanto son idénticos entre sí. El primer caso de clonación animal fue “Dolly” la oveja. Un equipo de científicos escoceses encabezado por Lan Wilmut logró el 23 de febrero de 1997 crear la primera oveja obtenida por medio de la clonación. Actualmente se está analizando hacer clones humanos, a fin de obtener órganos humanos para hacer transplantes, u otras cosas. Pero como todas las cosas esto tiene consecuencias, como por ejemplo por esto se tendría que hacer la clonación en embriones humanos. Esto es muy cruel ya que con esto se están matando pequeñas vidas.
214
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Se espera de este tema que los científicos utilicen la clonación inteligentemente y que no nos lleguen a defraudar ya que son los únicos que pueden llegar más allá de la ciencia para estudiar lo desconocido y para lograr vivir en un mundo mejor. ADN ADN es la abreviatura del ácido desoxirribonucleico. Constituye el material genético de los organismos. Es el componente químico primario de los cromosomas y el material del que los genes están formados. En las bacterias el ADN se encuentra en el citoplasma mientras que en organismos más complejos, tales como plantas, animales y otros organismos multicelulares, la mayoría del ADN reside en el núcleo celular. Se conoce desde hace más de cien años. El ADN fue identificado inicialmente en 1868 por Friedrich Miescher, biólogo suizo, en los núcleos de las células del pus obtenidas de los vendajes quirúrgicos desechados y en el esperma del salmón. Él llamó a la sustancia nucleína, aunque no fue reconocida hasta 1943 gracias al experimento realizado por Oswald Avery. Su función es dictar las instrucciones para fabricar un ser vivo idéntico a aquel del que proviene (o casi similar, en el caso de mezclarse con otra cadena como es el caso del la reproducción sexual). Estructura Los componentes del ADN (polímero) son los nucleótidos (monómeros); cada nucleótido está formado por un grupo de fosfato, una desoxirribosa y una base nitrogenada. Existen cuatro bases: dos purínicas (o púricas) denominadas adenina (A) y guanina (G) y dos pirimidínicas (o pirimídicas) denominadas citosina (C) y timina (T). La estructura del ADN es una pareja de largas cadenas de nucleótidos. La estructura de doble hélice (ver figura) del ADN no fue descubierta hasta 1953 por James Watson y Francis Crick (el artículo A Structure for Deoxyribose Nucleic Acid fue publicado el 25 de abril de 1953 en Nature¹ y dejaba claro el modo en que el ADN se podía "desenrollar" para que fuera posible su lectura o copia). Una larga hebra de ácido nucleico está enrollada alrededor de otra hebra formando un par entrelazado. Dicha hélice mide 3,4 nm de paso de rosca y 2,37 nm de diámetro, y está formada, en cada vuelta, por 10,4 pares de nucleótidos enfrentados entre sí por sus bases nitrogenadas. El rasgo fundamental es que cada base nitrogenada de una hebra "casa" con la base de la otra, en el sentido de que la adenina siempre se enfrenta a la timina (lo que se denomina A-T) y la guanina siempre a la citosina (G-C). La adenina se une a la timina mediante dos puentes de hidrógeno, mientras que la guanina y la citosina lo hacen mediante tres puentes de hidrógeno; de ahí que una cadena de ADN que posea un mayor número de parejas de C-G sea más estable. Este emparejamiento corresponde a la observación ya realizada por Erwin Chargaff (1905-2002) de que en todas las muestras la cantidad de adenina es siempre la misma que la timina, e igualmente con la guanina y la citosina. La cantidad de purinas (A+G) es siempre igual a la cantidad de pirimidinas (T+C). Así una purina (adenina y guanina), de mayor tamaño, está siempre emparejada con una pirimidina (timina y citosina), más pequeña, siendo de este modo uniforme la doble hélice (no hay "bultos" ni "estrechamientos"). Se estima que el genoma humano haploide tiene alrededor de 3.000 millones de pares de bases. Dos unidades de medida muy utilizadas son la kilobase (kb) que equivale a 1.000 pares de bases, y la megabase (Mb) que equivale a un millón de pares de bases. •
Capacidad para contener información: lenguaje codificado en la secuencia de pares de nucleótidos
•
Capacidad de replicación: dar origen a dos copias iguales
•
Capacidad de mutación: justificando los cambios evolutivos
Promotor
215
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El promotor es una secuencia de ADN que permite que un gen sea transcrito, sirve para dar la señal de comienzo a la ARN polimerasa. El promotor ADN determina cuál de las dos cadenas de ADN será copiada. Enlace de hidrógeno La adhesión de las dos hebras de ácido nucleico se debe a un tipo especial de unión química conocido como enlace de hidrógeno o puente de hidrógeno. Los puentes de hidrógeno son uniones más débiles que los típicos enlaces químicos, tales como interacciones hidrófobas, enlaces de Van der Waals, etc... Esto significa que las dos hebras de la hélice pueden separarse con relativa facilidad, quedando intactas. Papel de la secuencia En un gen, la secuencia de los nucleótidos a lo largo de una hebra de ADN se transcribe a un ARN mensajero (ARNm) y esta secuencia a su vez se traduce a una proteína que un organismo es capaz de sintetizar o "expresar" en uno o varios momentos de su vida, usando la información de dicha secuencia. La relación entre la secuencia de nucleótidos y la secuencia de aminoácidos de la proteína viene determinada por el código genético, que se utiliza durante el proceso de traducción o síntesis de proteínas. La unidad codificadora del código genético es un grupo de tres nucleótidos (triplete), representado por las tres letras iniciales de las bases nitrogenadas (por ej., ACT, CAG, TTT). Cuando estos tripletes están en el ARN mensajero se les llama codones. En el ribosoma cada codón del ARN mensajero interacciona con una molécula de ARN de transferencia (ARNt) que contenga el triplete complementario (denominado anticodón). Cada ARNt porta el aminoácido correspondiente al codón de acuerdo con el código genético, de modo que el ribosoma va uniendo los aminoácidos para formar una nueva proteína de acuerdo con las "instrucciones" de la secuencia del ARNm. Existen 64 codones posibles, por lo cual corresponde más de uno para cada aminoácido; algunos codones indican la terminación de la síntesis, el fin de la secuencia codificante; estos codones de terminación o codones de parada son UAA, UGA y UAG (en inglés, nonsense codons o stop codons). En muchas especies de organismos, sólo una pequeña fracción del total de la secuencia del genoma codifica proteínas; por ejemplo, sólo un 3% del genoma humano consiste en exones que codifican proteínas. La función del resto por ahora sólo es especulación, es conocido que algunas secuencias tienen afinidad hacia proteínas especiales que tienen la capacidad de unirse al ADN (como los homeodominios, los complejos receptores de hormonas esteroides, etc.) que tienen un papel importante en el control de los mecanismos de trascripción y replicación. Estas secuencias se llaman frecuentemente secuencias reguladoras, y los investigadores asumen que sólo se ha identificado una pequeña fracción de las que realmente existen. El llamado ADN basura representa secuencias que no parecen contener genes o tener alguna función; la presencia de tanto ADN no codificante en genomas eucarióticos y las diferencias en tamaño del genoma representan un misterio que es conocido como el enigma del valor de C. Algunas secuencias de ADN desempeñan un papel estructural en los cromosomas: los telómeros y centrómeros contienen pocos o ningún gen codificante de proteínas, pero son importantes para estabilizar la estructura de los cromosomas. Algunos genes codifican ARN: ARN ribosómico, ARN de transferencia), ARN interferentes (ARNi, que son ARN que bloquean la expresión de genes específicos). La estructura de intrones y exones de algunos genes (como los de inmunoglobulinas y protocadherinas) son importantes por permitir cortes y armados alternativos del pre-ARN mensajero que hacen posible la síntesis de diferentes proteínas a partir de un mismo gen (sin esta capacidad no existiría el sistema inmunológico). Algunas secuencias de ADN no codificante
216
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
representan pseudogenes que tienen valor evolutivo ya que permiten la creación de nuevos genes con nuevas funciones. Otros ADN no codificantes proceden de la duplicación de pequeñas regiones del ADN; esto tiene mucha utilidad ya que el rastreo de estas secuencias repetitivas permite estudios sobre el linaje humano La secuencia también determina la susceptibilidad del ADN para ser cortado por determinadas enzimas de restricción, lo que se aplica en la realización de la técnica de RFLP, popularmente conocida como la Huella genética, que se usa para determinar la identidad y la paternidad de personas, aunque esta poderosa técnica también tiene aplicaciones en agricultura, ganadería y microbiología. (Actualmente también se le llama Huella genética a variaciones de la técnica de PCR en la que no se utilizan enzimas de restricción sino fragmentos amplificados de ADN.)
El ADN como almacén de información En realidad se puede considerar así, un almacén de información (mensaje) que se trasmite de generación en generación, conteniendo toda la información necesaria para construir y sostener el organismo en el que reside. Se puede considerar que las obreras, de este mecanismo son las proteínas. Estas pueden ser estructuralescomo las proteínas de los músculos, cartílagos, pelo, etc., o bien funcionalescomo las de la hemoglobina, o las innumerables enzimas, del organismo. La función principal de la herencia es la especificación de las proteínas, siendo el ADN una especie de planoo recetapara nuestras proteínas. Unas veces la modificación del ADN que provoca disfunción proteica lo llamamos enfermedad, otras veces, en sentido beneficioso, dará lugar a lo que conocemos como evolución. Las alrededor de treinta mil proteínas diferentes en el cuerpo humano están hechas de veinte aminoácidosdiferentes, y una molécula de ADN debe especificar la secuencia en que se unan dichos aminoácidos. El ADN en el genoma de un organismo podría dividirse conceptualmente en dos, el que codifica las proteínasy el que no codifica. En el proceso de elaborar una proteína, el ADN de un gen se lee y se transcribe a ARN. Este ARN sirve como mensajero entre el ADN y la maquinariaque elaborará las proteínas y por eso recibe el nombre de ARN mensajero. El ARN mensajero instruye a la maquinaria que elabora las proteínas, para que ensamble los aminoácidos en el orden preciso para armar la proteína. El dogma centralde la genéticaes que el flujo de actividad y de información es: ADN → ARN → proteína; pocas veces la información fluye del ARN al ADN. El ADN basura El mal llamado ADN basura corresponde a secuencias del genoma procedentes de duplicaciones, translocaciones y recombinaciones de virus, etc, que parecen no tener utilidad alguna. No deben confundirse con los intrones. Corresponde a más del 90% de nuestro genoma, que cuenta con 30.000 ó 40.000 genes. Genes Un gen es una secuencia lineal de nucleótidos de ADN o ARN que es esencial para una función específica, bien sea en el desarrollo o en el mantenimiento de una función fisiológica normal. Es considerado como la unidad de almacenamiento de información y unidad de herencia al transmitir esa información a la descendencia. La realización de esta función no requiere de la traducción del gen ni tan siquiera su transcripción. Los genes están localizados en los cromosomas en el núcleo celular y se disponen en línea a lo largo de cada uno de los cromosomas. Cada gen ocupa en el cromosoma una posición determinada llamada locus. El conjunto de genes de una especie se denomina genoma.
217
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Algunas enfermedades como la anemia de células falciformes pueden ser ocasionadas por un cambio en un solo gen (uno de los 30.000 genes que constituyen el plan para todo el cuerpo humano). Los genes están dispuestos en orden a lo largo de la cadena de ADN en el cromosoma, de manera similar a una sarta de cuentas. En la mayoría de los casos, existen genes apareados de cada padre en los cromosomas apareados y en las posiciones apareadas a lo largo de la cadena de ADN dentro del cromosoma. Estos genes aparecen en pares que corresponden a uno de la madre y uno del padre. Los genes pueden ser dominantes o recesivos. Los rasgos genéticos dominantes son aquellos que se presentan cuando un gen del par de genes puede controlar el rasgo para el cual ese par de genes codifica. Mientras que los rasgos genéticos recesivos precisan que ambos genes del par trabajen en conjunto para controlar el rasgo. Tipos de genes Genes estructurales, que codifican proteínas, que podrían ser reguladoras de genes, o codifican ARN específicos que sólo se transcriben. Muchos genes se encuentran constituidos por regiones codificantes (exones) interrumpidas por regiones no codificantes (intrones) que son eliminadas en la formación del ARN. La secuencia de bases presente en el ARN determina la secuencia de aminoácidos de la proteína por medio del código genético. Genes reguladores sin transcriptos, como: Genes o secuencias de replicación que especifican el sitio de iniciación y terminación de la replicación del ADN. Genes de recombinación que proporcionan los sitios de unión para las enzimas de recombinación. Genes de segregación que son los sitios específicos para que las fibras del huso mitótico durante la meiosis se adhieran a los cromosomas durante la segregación en mitosis y meiosis. Genes de secuencias del ADN que reconocen e interactúan con proteínas, hormonas y otras moléculas. Secuencias de repetición y secuencias sin sentido. Cromosomas Al examinar con el microscopio una célula en división indirecta, y perfectamente teñida con uno de los colorantes habituales, pueden verse en el interior del núcleo unos cuerpos muy teñidos, que se llaman cromosomas. Estructura: Cada cromosoma está formado por dos brazos articulados entre sí a nivel de una esferita llamada centrómero. Según la disposición y la longitud de los brazos, se reconocen tres tipos de cromosomas: •
Acrocentrico: Uno de los brazos es muy pequeño y el cromosoma toma la forma de un filamento.
•
Submetacentrico: Uno de los brazos es más corto que el otro y el cromosoma tiene la forma de una L mayúscula.
218
•
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Metacéntrica: Los dos brazos tienen la misma longitud y el cromosoma parece una V mayúscula.
Función: Los cromosomas rigen fenómenos de variación, mutación, herencia y evolución de los seres vivos. ¿Cómo y cuando se transmite el material genético? En la reproducción sexual intervienen gametas masculinas y femeninas. Éstas tienen una característica que las diferencia fundamentalmente del resto de las células: durante su formación se produce una división celular llamada meiosis. Como consecuencia de la meiosis tienen la mitad de cromosomas y por eso se las llama células haploides. Cuando las gametas masculina y femenina se unen, se forma una célula huevo que contienen la información genética proveniente de las dos gametas. Entonces, esta célula tiene el número de cromosomas completo y por eso es diploide, con la información necesaria para formar un nuevo ser. Todas las células que se originan a partir de la célula huevo también tienen dos juegos de cromosomas para el mismo tipo de información genética. Los cromosomas de un mismo tipo se llaman cromosomas homólogos. Homocigoto - Heterocigoto El gen para un carácter, por ejemplo el color de ojos, puede presentarse en dos formas o más (ojos azules, verdes, marrones). A cada una de las formas se la llama alelo. En un individuo, el gen para un carácter se encuentra en dos cromosomas homólogos: un cromosoma que proviene del padre y el otro, de la madre. Es decir que cada carácter tiene dos genes, y por lo tanto dos alelos; los alelos ocupan el mismo lugar en los cromosomas homólogos. •
Si los dos alelos (uno en cada cromosoma) son iguales, se dice que el individuo es homocigota para ese carácter.
•
Cuando los dos alelos son distintos, se dice que el individuo es heterocigota para ese carácter.
Alelos, Genotipo y Fenotipo Se denominan caracteres alelos o alelomorfos a dos rasgos que contrastan y que por lo tanto no pueden heredarse en forma conjunta. Por ejemplo, el pelo rizado y el pelo lacio. Se denomina genotipo a la constitución genética del organismo, y fenotipo a la apariencia exterior de determinado rasgo o carácter, como negro, blanco, rizado, lacio. ¿Quién fue Gregor Mendel? El austriaco Gregorio Mendel es considerado el precursor de la genética, ya que experimentando con arvejas enuncio con suma precisión las leyes de la herencia, que hoy llevan su nombre. En
219
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
1868 fueron publicadas en un diario de su país, pero no despertaron interés científico y permanecieron ignoradas por más de 30 años, hasta que tres investigadores (Vries, holandés; Von Tschermak, austriaco; y Correns, alemán) llegaron a las mismas conclusiones independientemente, entonces fueron reconocidos los trabajos dejados por Mendel, los cuales se conocen como leyes cuantitativas o leyes de Mendel, que estudian la proporción en que se transmiten los caracteres de padres a hijos y a través de varias generaciones. Leyes de Mendel Teoría general sobre la herencia, conocida como leyes de Mendel. Primera ley de Mendel Si se cruzan dos razas puras para un determinado carácter, los descendientes de la primera generación son todos iguales entre sí y, a su vez, iguales a uno de sus progenitores, que es el poseedor del alelo dominante. Mendel elaboró este principio al observar que si cruzaba dos razas puras de plantas del guisante, una de semillas amarillas y otra de semillas verdes, la descendencia que obtenía, a la que él denominaba F1, consistía únicamente en plantas que producían semillas de color amarillo. Estas plantas debían tener, en el gen que determina el color de la semilla, los dos alelos que habían heredado de sus progenitores, un alelo para el color verde y otro para el color amarillo; pero, por alguna razón, sólo se manifestaba este último, por lo que se lo denominó alelo dominante, mientras que al primero se le llamó alelo recesivo. Segunda ley de Mendel Los alelos recesivos que, al cruzar dos razas puras, no se manifiestan en la primera generación (denominada F1), reaparecen en la segunda generacion (denominada F2) resultante de cruzar los individuos de la primera. Ademas la proporción en la que aparecen es de 1 a 3 respecto a los alelos dominantes. Mendel cruzó entre sí los guisantes de semillas amarillas obtenidos en la primera generación del experimento anterior. Cuando clasificó la descendencia resultante, observó que aproximadamente tres cuartas partes tenían semillas de color amarillo y la cuarta parte restante tenía las semillas de color verde. Es decir, que el carácter « semilla de color verde », que no había aparecido en ninguna planta de la primera generación, sí que aparecía en la segunda aunque en menor proporcion que el carácter « semilla de color amarillo Tercera ley de mendel Los caracteres que se heredan son independientes entre si y se combinan al azar al pasar a la descendencia, manifestandose en la segunda generacion filial o F2. En este caso, Mendel selecciono para el cruzamiento plantas que diferian en dos caracteristicas, por ejemplo, el color de los guisantes (verdes o amarillos) y su superficie (lisa o arrugada). Observo que la primera generaci6n estaba compuesta unicamente por plantas con guisantes amarillos y lisos, cumpliendose la primera ley. En la segunda generaci6n, sin embargo, aparecian todas las posibles combinaciones de caracteres, aunque en las proporciones siguientes: 1/16 parte de guisantes verdes y rugosos, 3/16 de verdes y lisos, 3/16 de amarilios y rugosos y por ultimo 9/16 de amarillos y lisos. Esto le indujo a pensar que los genes eran estructuras independientes unas de otras y, por lo tanto, que unicamente dependia del azar la combinaci6n de los mismos que pudiese aparecer en la descendencia. La Genetica despues de Mendel: Teoria Cromosomica de la herencia
220
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
A principios de este siglo, cuando las tecnicas para el estudio de la celula ya estaban suficientemente desarrolladas, se pudo determinar que los genes estaban formados por acido desoxirribonucleico (ADN) y ademas se encontraban dentro de unas estructuras que aparecian en el citoplasma justo antes de cada proceso de divisi6n celular. A estas estructuras se las denomin6 cromosomas, termino que significa « cuerpos coloreados », por la intensidad con la que fijaban determinados colorantes al ser teñidos para poder observarlos al microscopio. Ademas se vio que estos aparecian repetidos en la celula formando un numero determinado de parejas de cromosomas homologos caracteristico de cada especie, uno de los cuales se heredaba del padre y el otro de la madre. Tambien se pudo comprobar que el numero de pares de cromosomas no dependia de la complejidad del ser vivo. Asi por ejemplo, en el hombre se contabilizaron 23 pares de cromosomas, mientras que en una planta como el trigo podian encontrarse hasta 28 pares. En base a estos descubrimientos y a los estudios realizados en 1906 por el zoologo estadounidense Thomas H. Morgan sobre los cromosomas de la mosca del vinagre (Drosophila melanogaster), se pudo elaborar la teoria cromos6mica de la herencia donde se establecia de manera inequívoca la localizac16n fisica de los genes en la celula. Gracias a esta teoria se pudo dar tambien una explicaci6n definitiva a los casos en los que no se cumplian con exactitud las leyes de Mendel anteriormente citadas. De manera parecida a Mendel, Morgan se dedic6 a cruzar de manera sistematica diferentes variedades de moscas del vinagre. Estas moscas ofrecian muchas ventajas con respecto a los guisantes ya que tienen un ciclo vital muy corto, producen una gran descendencia, son faciles de cultivar, tienen tan s6lo cuatro cromosomas y presentan caracteristicas hereditarias facilmente observables, como el color de los ojos, la presencia o ausencia de alas, etcetera. Herencia de genes ligados La investigacion con las moscas del vinagre proporcionó a Morgan evidencias de que los caracteres no eran heredados siempre de forma independiente tal y como habia postulado Mendel en su tercera ley. Supuso que al haber solo cuatro cromosomas diferentes, muchos genes debian estar «ligados», es decir, debian compartir el mismo cromosoma y por ello mostrar una Clara tendencia a transmitirse juntos a la descendencia. No obstante, las conclusiones realizadas por Mendel años atras, no dejaban de ser correctas para los genes «no ligados». Solo la casualidad hizo que Mendel escogiese para los cruces de sus plantas caracteristicas determinadas por genes situados en cromosomas distintos. Herencia ligada al sexo
221
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
En uno de sus primeros experimentos, Morgan cruzó un macho de moscas de ojos rojos (normales) con una hembra que habia encontrado casualmente y que tenia los ojos blancos. Las moscas que obtuvo en esta primera generacion o F1 tenian todas los ojos rojos, tal y como se describe en la primera ley de Mendel. Pero cuando cruzó entre si estas moscas para obtener la segunda generación filial o F2, descubrió que los ojos blancos solo aparecian en las moscas macho y ademas como un caracter recesivo. Por alguna razón, la caracteristica «ojos blancos» no era transmitida a las moscas hembras, incumpliendo, al menos parcialmente, la segunda ley de Mendel. Al mismo tiempo, en sus observaciones al microscopio, Morgan habia advertido con extrañeza que entre los cuatro pares de cromosomas de los machos, habia una pareja en la que los cromosomas homólogos no tenian exactamente la misma forma. Era como si a uno de ellos le faltase un trozo, por lo que a partir de ese momento a esta pareja se la denomin6 cromosomas XY. Sin embargo en la hembra, la misma pareja de cromosomas homólogos no presentaba ninguna diferencia entre ellos, por lo que se la denominó cromosomas XX. Morgan pensó que los resultados anómalos del cruzamiento anterior se debian a que el gen que determinaba el color de los ojos se encontraba en la porción que faltaba en el cromosoma Y del macho. Por tanto, en el caso de las hembras (xx) al existir dos alelos, aunque uno de ellos fuese el recesivo (ojos blancos), el carácter manifestado era el normal (ojos rojos). En los machos, sin embargo, al disponer Únicamente de un alelo (el de su único cromosoma X), el carácter recesivo si que podia ser observado. De esta manera quedaba tambien establecido que el sexo se heredaba como un carácter más del organismo.
Bioquímica Bioquímica es el estudio químico de los seres vivos, especialmente de la estructura y función de sus componentes químicos específicos, como son las proteínas, carbohidratos, lípidos y ácidos nucléicos, además de otras pequeñas moléculas presentes en las células.
La Investigación en Bioquímica El comienzo de la bioquímica puede muy bien haber sido el descubrimiento de la primera enzima, la diastasa, en 1833 por Anselme Payen. En 1828, Friedrich Wöhler publicó un artículo acerca de la síntesis de urea, probando que los compuestos orgánicos pueden ser creados artificialmente, en contraste con la creencia, comúnmente aceptada durante mucho tiempo; de que la generación de estos compuestos era posible sólo en el interior de los seres vivos. Desde entonces, la bioquímica ha avanzado, especialmente desde la mitad del siglo XX con el desarrollo de nuevas técnicas como la cromatografía, la difracción de rayos X, marcaje por isótopos, y el microscopio electrónico. Estas técnicas abrieron el camino para el análisis detallado y el descubrimiento de muchas moléculas y rutas metabólicas de las células, como la glicólisis y el ciclo de Krebs.
Hoy en día los avances de la bioquímica son usados en cientos de áreas, desde la genética hasta la biología molecular, de la agricultura a la medicina. Probablemente una de las primeras aplicaciones de la bioquímica fue la producción de pan usando levaduras, hace 5000 años.
El pilar fundamental de la investigación bioquímica se centra en las propiedades de las proteinas, muchas de las cuales son enzimas. Por razones históricas la bioquímica del metabolismo de la célula ha sido intensamente investigado, importantes líneas de investigación actuales incluyen el código genético (ADN, ARN, síntesis de proteínas, dinámica de la membrana celular y ciclos energéticos).
222
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Categorías La bioquímica está conformada por la química de sustancias que pueden ser catalogadas fundamentalmente en estos epígrafes:
Esquema de una tipica célula animal con sus orgánulos y estructurasCarbohidratos Lípidos Proteínas y Aminoácidos Ácidos nucléicos Se divide en varias ramas tales como:
Bioquímica Celular (o Biología Celular): Es una área de la Biología, dónde prima el estudio de la célula, es decir, el comportamiento interno, como por ejemplo, los organelos y las señales de comunicación intracelular, y su comportamiento externo, como señales extracelulares y intercelulares (a otras células), así como también su entorno (Matriz Extracelular (MEC o en Inglés ECM)), el cual juega un papel muy importante en su funcionamiento y comportamiento.
Representación esquemática de la molécula de ADN, la molécula portadora de la información genética.Genética: Es un área de la Biotecnología dónde se estudia principalmente el DNA (en español ADN), y el RNA (ARN), para entender la función de cada una de sus partes, su codificación, para luego intentar identificar ciertas patologías, rasgos, e incluso modificarlas. Laboratorio Clínico: Área propia de la Bioquímica, en la cual se analizan el Perfil Bioquímico de las personas para diagnosticar algún tipo de patología médica. Inmunología: Área de la Medicina, la cual se interesa por la reacción del organismo frente a organismos como las bacterias y otros como los Virus (que no son organismos (no son seres vivos)). todo esto tomando en cuenta la reacción y funcionamiento del Sistema Inmune en cada una de las intervenciones de estos extraños en el organismo humano. Farmacología: Área de la Química-Framacéutica, que estudia como afectan ciertas sustancias Químicas al funcionamiento celular en el organismo. BIOELEMENTOS Son los elementos químicos que forman parte de la materia viva. Son todos los del sistema periódico salvo los gases nobles y tierras raras. Se clasifican en 3 grupos •
PRIMARIOS: son los más abundantes, en conjuntos representan >96% y son [C, H, O, N, P, S]. Todos ellos son elementos electronegativos, pueden compartir electrones (ENLACES COVALENTES). De todos, el más importante es el C (puede formar cadenas carbonadas.)
•
SECUNDARIOS: (<4%). INDISPENSABLES; aquellos que están en todos los sv. [Ca, Na, Mg, K, Cl, Fe, Si, Cu, Mn, Br, F, I]...VARIABLES; no están en todos los sv [Al, Br, Zn, Ti, V, Pb]
223
•
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
OLIGOELEMENTOS: (<0,1 %), Ejemplo. Co; Cianocobalamina, vitamina b12, imprescindible para fabricar hemoglobina.
2. BIOMOLÉCULAS Compuestos químicos que forman parte de los sv. Hay de dos tipos: A - INORGÁNICAS: son comunes para los sv y para los seres inertes: gases respiratorios, agua y sales minerales. B - ORGÁNICAS: son exclusivos de los sv. Glúcidos, lípidos, proteínas, biocatalizadores y ácidos nucleicos. 3. los gases respiratorios Son el O2 y el CO2. En la mayor parte de los animales, los líquidos circulatorios transportan O2y CO2, pero estos gases son pocos solubles en agua (son apolares y el agua es polar), entonces son transportados. Unidos a sustancias transportadoras (pigmentos respiratorios)(HEMOGLOBINA, pigmento rojo que tiene Fe y existe en los vertebrados. Hemoglobina + O2 = OXIHEMOGLOBINA, está presente en la sangre oxigenada. Transporta el O2 desde los centros respiratorios hasta cada una de las células. Si, HEMOGLOBINA + CO2 = CARBOXIHEMOGLOBINA, y forma la sangre no oxigenada, y transporta el CO2 desde las células hasta los centros respiratorios.) En algunos animales el líquido circulatorio no transporta gases (insectos), éstos animales tienen un sistema de tráqueas que llevan O2 directamente a cada una de las células. En los vegetales los gases respiratorios nunca son transportados por la SAVIA. 4. el agua en los seres vivos Todos los seres vivos tienen agua PROPIEDADES DEL AGUA: Agua 18 umas (líquido, debería ser gas) Masa molecular CO2 44 umas (gas) Es líquida a Tª ambiente, H2O; H y O enlaces covalentes, y los electrones que se comparten están más cerca del O que del H (O-, H+). La molécula de agua se comporta como un dipolo. Entre los distintos dipolos de agua se establecen unos enlaces “débiles”, llamados puentes de hidrógeno, éstos enlaces dificultan el libro movimiento de las moléculas de agua, que por tanto deja de ser un gas y se comporta como un líquido. PUENTE DE HIDRÓGENO. Son enlaces débiles, establecidos entre el H electropositivo y cualquier grupo electronegativo.
224
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
•
2012
IONIZA las sustancias disueltas en ella (polares)
•
Tiene un elevado calor específico(cantidad de calor que hay que suministrar a la sustancia para elevar su Tª.
•
Tiene elevado calor de vaporización.
•
El agua es un líquido incompresible.
•
El agua es la única sustancia que al disminuir la Tª, su volumen aumenta, por tanto, la densidad del hielo es inferior a la del agua líquida.
LAS FUNCIONES DEL AGUA •
Actuar como esqueleto hidrostático [líquido amniótico]
•
El agua nos e congela casi nunca, de forma que, el hábitat acuático permanece líquido.
•
Función termorreguladora. Además ayuda a bajar la Tª corporal, mediante la sudoración.
•
Todas las reacciones químicas del organismo (METABOLISMO), tienen lugar en disolución acuosa.
•
El agua es el disolvente universal de las sustancias polares, y se utiliza como medio de transporte.
5. sales minerales. En los sv se hallan de 2 formas. Se hallan precipitadas, en forma de sales (CaCo3,concha molusca, f. Estructural Disueltas en H2O, disociadas en Iones. CATIONES (+) Na+, K+, Ca++, Mg++, Fe++, Fe+++ ANIONES (-) Cl-, carbonatos, fosfatos- , nitratos-, sulfatosPROPIEDADES DE LAS DISOLUCIONES.
225
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
I DIFUSIÓN, reparto equitativo de las moléculas de soluto entre los de disolvente, son homogéneas.
II ÓSMOSIS, El paso de disolvente, a través de una membrana semipermeable, desde una disolución hipotónica, hacia otra hipertónica, hasta alcanzar el equilibrio osmótico (disoluciones isotónicas). Una disolución es hipotónica con respecto a otra que será hipertónica, cuando la 1ª tiene una concentración inferior a la 2ª. Cuando las 2 disoluciones tienen la misma concentración, son isotónicas. La osmosis es muy importante en los sv, porque la mayor parte de las membranas biológicas, son semi impermeables.[hipo-, hiper+] III ACIDEZ - ALCALINIDAD (pH), Una disolución es ácida cuando es capaz de ceder protones. Una disolución es básica cuando es capaz de captar protones. Para medir el grado de acidez-alcalinidad, hay una escala logarítmica, llamada “escala del pH” (pH>7 alcalina; pH<7 ácida; pH =7 neutra) El organismo necesita trabajar dentro de unos límites del pH, “pH fisiológico.” Para mantener el pH dentro de los límites del pH fisiológico, hay unas sustancias llamadas DISOLUCIONES TAMPÓN, cada disolución tampón consta de una pareja de componentes. componente levemente ácido componente levemente básico (=alcalino) pH > pH fisiológico ALCALOSIS actúa el componente levemente ácido alcalosis compensada pH < pH fisiológico ACIDOSIS actúa el componente levemente básico acidosis compensada 6. glúcidos (=hidratos de carbono)(=carbohidratos) CARACTERÍSTICAS GENERALES •
Compuesto formado por C, H y O
•
Generalmente posee sabor dulce
•
Suelen ser sustancias energéticas
•
Compuestos polares
•
Solubles en agua
226
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
6.1 monosacáridos Son glúcidos no hidrolizables [(HIDRÓLISIS: rotura química de una molécula en otras más pequeñas por la acción del agua)] Químicamente se nombran “Polihidroxialdehidos” (=aldosas) ó Polihidroxicetonas (=cetosas) ¿Polihidroxialdehidos? Muchos OH más grupo aldehído. En cada C tiene un OH excepto en uno, que se llama carbono carbonilo, y ahí hay un grupo aldehído. ¿Polihidroxicetonas? Muchos OH más grupo cetona. En cada C tiene un OH excepto en uno, que se llama carbono carbonilo, y ahí hay un grupo cetona. 2 compuestos son isómeros cuando tienen la misma fórmula empírica pero distinta fórmula desarrollada. • Hay monosacáridos de 3 C, se llaman triosas (aldotriosas, cetotriosas) Hay monosacáridos de 5 C, se llaman pentosas (aldopentosas, cetopentosas) Hay monosacáridos de 6 C, se llaman hexosas (aldohexosas, cetohexosas) Las osas (aldosas y cetosas) del mismo número de átomos de C son compuestos isómeros. TRIOSAS •ALDOTRIOSAS •CETOTRIOSAS GLICERALDEHIDO DIHIDROXIACETONA C3H6O3 C3H6O3 Decimos que un C es asimétrico cuando está unido a 4 sustituyentes distintos.
227
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Siempre que un compuesto tenga al menos un C asimétrico, aparece un tipo especial de isomería llamada ESTEROISOMERIA, con dos isómeros. De forma D: aquel isómero que tiene el OH del C asimétrico, más alejado del principio a la derecha De forma L: aquel isómero que tiene el OH del C asimétrico más alejado del principio, a la izquierda. PENTOSAS •ALDOPENTOSAS •CETOPENTOSAS RIBOSA RIBULOSA
La D-RIBOSA es un componente del ARN. La D-RIBULOSA interviene en la fotosíntesis captando CO2 atmosférico.
Hay un compuesto derivado de la D-RIBOSA, no es una aldopentosa y una cetopentosa que es un dexiazúcar. Y se llama D-2-DESOXIRIBOSA[(*)] HEXOSAS •ALDOHEXOSAS GALACTOSA GLUCOSA MANOSA •CETOHEXOSAS FRUCTOSA 6.2 disacáridos Son glúcidos hidrolizables, formado por monosacáridos (HOLÓSIDOS), concretamente por 2 monosacáridos unidos entre sí a través de un enlace O-glucosídico con desprendimiento de una molécula de H2O. MIRAR LOS EJEMPLOS DE DISACÁRIDOS EN EL CUADERNO 6.3 polisacáridos Glúcidos hidrolizables (ósidos), formados sólo por monosacáridos, en concreto por muchos a través de enlaces O-glucosídicos.
228
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
TIPOS: Polimetizado (repetidos sucesivamente) en forma
Son fáciles de hidrolizar ya que los sv poseemos enzimas para romper los enlaces O- glucosídicos. tiene una función Todo polisacárido polimerizado en forma energética. , son difíciles de hidrolizar porque Polimetizados en forma normalmente no poseemos enzimas para degradar esos enlaces. Son estructurales, dan soporte. EJEMPLOS: -D-glucosa, al ser , tiene función energética, es de origen exclusivamente vegetal. La enzima que hidroliza el almidón se llama AMILASA, y está en todos los sv. Es producido en la fotosíntesis, en los cloroplastos. Almidón polímero de
-D-glucosa, = energética. Su origen es exclusivamente animal, es fabricado en los músculos ye n el hígado. Representa una reserva de glucosa. Glucógeno polímero de
-D-glucosa, Celulosa polímero de = estructura, forma parte de todas las paredes celulares de todas las células vegetales. La enzima que hidroliza la celulosa se llama CELULASA y es muy rara en los sv. Únicamente la poseen algunos protozoos. -N-acetil glucosamina, = estructural, es el compuesto nitrogenado más abundante en la naturaleza, forma parte de la pared celular de hongos. Y sobretodo forma el exoesqueleto de artrópodos (invertebrados con patas articuladas) [cangrejo] Quitina es un polímero de
6.4 heteróxidos Glúcidos hidrolizables formados por monosacáridos y otras sustancias (AGLUCÓN). Dependiendo de la naturaleza del aglucón hay diversos tipos de heteróxidos. GLUCOLÍPIDOS son los que tienen como aglucón un lípido (glúcido + lípido) GLUCOPROTEINAS como aglucón una proteína 7.lípidos •
Características generales o
Formado por C, H, y O
o
HETEROGENEIDAD, química y funcional
o
Compuestos apolares (insolubles en agua pero solubles en disoluciones apolares
1. Lípidos saponificables
229
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
A. Simples
2012
o Acilglicéridos o Céridos B. Complejos o Fosfolípidos o Glucolípidos 2. Lípidos insaponificables A. Terpenos B. Esteroides C. Prostaglandinas 7.1 ácidos grasos Son ácidos orgánicos (grupo carboxilo -COOH) de número par de átomos de carbono y de cadena larga (a partir de 8C) •
DOS TIPOS o
Saturados = sin dobles enlaces. Son sólidos a tª ambiente
o
Insaturados = al menos 1 doble enlace. Son líquidos a tª ambiente
7.2 Grasas (=acilglicéridos) Lípidos saponificables (producen jabones) sencillos, originados al “ESTERIFICAR” 3 ácidos grasos con glicerol [[glicerol = propanotriol]] [(ESTERIFICAR unir mediante puentes de oxígenos o enlaces éster)] Hay dos tipos de grasa; SATURADAS aquellas que poseen ac. Grasos saturados. Son sólidas a tª ambiente. Se llaman genéricamente mantecas (=sebos) y suelen proceder de animales HOMEOTERMOS. Su ingestión excesiva, eleva los niveles de colesterol. ;INSATURADAS aquellas que poseen ac. Grasos insaturados. Son líquidos a tª ambiente. Se llaman genéricamente aceites y proceden generalmente de vegetales y de animales POIQUILOTERMOS. ¿PARA QUE SIRVEN LAS GRASAS? •
Son sustancias de reserva energética.
230
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
•
Actúan como aislantes térmicos.
•
Son apolares, actúan como impermeables.
•
Producen jabones cuando reaccionan con los hidróxidos (SAPONIFICACIÓN)
2012
7.3 CERAS (=CÉRIDOS) Lípidos saponificables, sencillos, originados por un ácidos graso esterificado con un monoalcohol de cadena larga (>8C) - Propiedades de las ceras: Son fuertemente APOLARES . Son moléculas de gran tamaño. Sólidas a tª ambiente. - Funciones Una propiedad de las ceros, Son impermeabilizantes. No son energéticas. Se utilizan como sustancias defensivas. Pueden ser estructurales. 7.4 fosfolípidos Lípidos saponificables, complejos, formados por 1 alcohol (puede ser glicerol), 2 ac. Grasos, 1 ácido fosfórico y 1 alcohol nitrogenado. •
Los FOSFOLÍPIDOS son moléculas anfipáticas en las que coexisten porciones polares y apolares.
•
Son componentes fundamentales del sistema nervioso.
Glicerol ac. graso P ácido fosfórico Alcohol nitrogenado 7.5 glucolípidos
231
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Lípidos saponificables, complejos, formados por un alcohol (que puede ser glicerol) uno o dos ac. Grasos y 1 glúcido (que puede ser mono o disacárido) Los glucolípidos son sustancias anfipáticas, son componentes del sistema nervioso. monosacárido 7.6 propiedades de las moléculas anfipáticas. •
En disolución acuosa se orientan dé forma que se origina una MICELA - BICAPA en la cuál las porciones apolares(hidrofóbicas) quedan hacía el interior de la bicapa y las polares (hidrofílicas) hacía el exterior. La existencia de la micela - bicapa origina 2 medios acuosos, uno externo y otro interno. o
El EXTERNO sería el extracelular
Por lo cuál se originan o
El INTERNO sería el intracelular
las membranas celulares, es decir todos los lípidos anfipáticos son lípidos de membrana. (MICELAfigura espacial en forma de esfera) Toda membrana celular está formada por lípidos anfipáticos.
* MEDIO ACUOSO INTRACELULAR + MEDIO ACUOSO EXTRACELULAR 7.7 TERPENOS Lípidos in saponificables (no jabones), no derivados de ac. Grasos. Originados a partir de la polimerización (repetición sucesiva) del isopreno (2 metil 1,3 butadieno) Es APOLAR porque no tiene OH sueltos. Son todos de origen vegetal. 7.8 esteroides Lípidos in saponificables, no derivados de ac grasos, derivados del ESTERANO
232
esterano
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
•
VITAMINA D favorece la calcificación ósea
•
HORMONAS SEXUALES aquellas que tienen relación con los caracteres sexuales.
•
SALES BILIARES son producidas en el hígado y sirve para EMULSIONAR las grasas en el duodenos.
•
COLESTEROL imprescindible para dar consistencia a las membranas celulares. El colesterol en la sangre se asocia con proteínas formando LIPOPROTEÍNAS.
Colesterol -HDL ”colesterol bueno”(envía el colesterol al hígado para su eliminación) Colesterol -LDL malo, se deposita en las arterias “ ” -VLDL// produciendo una placa sólida, “ATEROMA”, que provoca dificultades circulatorias formando aterosclerosis, la ingestión excesiva de grasas saturadas eleva los niveles “de colesterol malo” 7.9 icosanoides Lípidos in saponificables, derivados de un ácido graso de 20 C (ICO = 20 C). Hay muchos icosanoides, los más comunes se llaman PROSTAGLANDINAS, los efectos de estos icosanoides son muy variables. •
Reducen la presión arterial
•
Favorecen la secreción de mucus gástrico
•
Provocan reacciones inflamativas y dolorosas
•
Eleva la tª corporal (fiebre)
Su síntesis se ve inhibida por el ácido acetilsalicílico. 8. proteínas Compuestos orgánicos formados por C, H, O y N. Pueden tener P, S y metales. Son macromoléculas formadas por la polimerización de unidades más pequeñas llamadas aminoácidos. Son polares. 8.1 aminoácidos Compuestos orgánicos que poseen: grupo carboxilo (-COOH)(ácido) grupo amino (-NH2) Fórmula general: H
233
NH2 C COOH
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
R cualquier cadena carbonada, variando el grupo R, se obtienen distintos aminoácidos (aa). En las proteínas hay un total de 20 aminoácidos (aminoácidos proteicos) EJEMPLOS: Si R=...
H
GLICINA
CH3
ALANINA
CH2OH
SERINA
Los aminoácidos son POLARES. Disueltos en agua están ionizados. El grupo ácido cede un protón que capta el grupo amino H NH3+ C COOR •
¿Cómo se unen los aminoácidos entre sí?
Se unen mediante un enlace P. EPTÍDICO (enlace AMIDA) establecido entre el grupo ácido de un aminoácido y el amino del siguiente con desprendimiento de una molécula de agua. Si se unen dos aminoácidos se forma un DIPÉPTIDO, 2; tripéptido, 4; tetrapéptido... muchos; se forma una POLIPÉPTIDO. 8.2 estructura de las proteínas PRIMARIA Secuenciación lineal de aminoácidos (aa). Tiene una serie de propiedades. •
Molécula lineal con dos extremos o
C-terminal [aquel aminoácido que tiene el grupo ácido libre.]
o
N-terminal [aquel aminoácido que tiene el grupo amino libre]
•
Molécula secuenciada (=ordenada( que se nombra siempre empezando por el N-terminal.
•
Molécula específica [(cada especie tiene sus propias proteinas distintas de las de otras)(incluso dentro de una misma especie cada individuo tiene proteínas distintas de las de cualquier otro)] Si un individuo recibe directamente proteinas procedentes de otro, no las reconoce como propias y elabora una reacción de rechazo. Excepcionalmente los gemelos monocigóticos son genéticamente idénticos y tienen las mismas proteínas.
234
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
E. SECUNDARIA
Plegamiento Espacial REGULAR de la estructura primaria. Se estabiliza mediante enlaces no covalentes (“débiles”) - hélice -lámina (=lámina plegada) E. TERCIARIA Plegamiento espacial de la estructura secundaria. Se estabiliza con enlaces no covalentes. GLOBULAR. Son químicamente activas y solubles en agua. FIBROSA. De forma alargada, químicamente inactivas e insolubles en agua (ESTRUCTURAL) Llamamos DESNATURALIZACIÓN a la desestabilización (=ROTURA) de la estructura secundaria y de la estructura terciaria. Por ejemplo: calor y ciertas sustancias químicas. Una proteína desnaturalizada es una proteína infuncional. E. CUATERNARIA Sólo la poseen aquellas proteínas formadas por más de una cadena y consiste en la disposición espacial de cada una de esas cadenas. 8.3 clasificación de las proteínas Según su composición química Proteínas formadas sólo por AMINOÁCIDOS [=HOLOPROTEÍNAS] GLOBULARES FIBROSAS Por aminoácidos y “algo más”[=HETEROPROTEÍNAS] Grupo proteico (aa) G. prostético (otras sustancias) GLUCOPROTEINAS heteroproteínas cuyo grupo prostático es un glúcido Lipoproteínas heteroproteínas cuyo grupo prostático es un lípido Nucleoproteínas heteroproteínas cuyo grupo prostático es un ácido nucleico. fosfoproteinas heteroproteínas cuyo grupo prostático es un ácido fosfórico
235
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
cromo proteínas heteroproteínas cuyo grupo prostático es un pigmento Según su función. ESTRUCTURALES: Aquellas que dan soporte. Queratina fibroina (consistencia en la seda) osteína (tejido óseo) CONTRÁCTILES: Aquellas que realizan un trabajo mecánico. Actina y Miosina DEFENSIVAS: Aquellas que protegen a un sv
Anticuerpos: (=GLOBULINAS) llamamos antígeno a toda sustancia extraña que el organismo no reconoce como propia. Un anticuerpo es una proteína, que el organismo fabrica de forma específica frente a un determinado antígeno, utilizando el mecanismo de la inmunidad. TRANSPORTADORAS Hemocianina Hemoglobina HOMEOSTÁTICAS: Aquellas que colaboran en la homeostaisa (=mantenimiento de las condiciones de equilibrio en el medio interno) Fibrinógeno (disuelta en la sangre, en contacto con una herida se transforma en fibrina (sólida) que contribuye a formar un coágulo. TÓXICAS Toxina botulínica (proteína mortal) [lata abollada hacía afuera] HORMONALES CATALÍTICAS: (catálisis, aceleración de las reacciones químicas) ENZIMAS. Insulina: hormona hipoglucemiante NUTRITIVAS: Aquellas que se utilizan como fuente de aa. 9.biocatalizadores Sustancias químicas que aceleran la velocidad de las reacciones bioquímicas •
Prescindible desde el punto de vista químico
•
Imprescindible desde el punto de vista biológico.
Varios tipos
236
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
•
Oligoelementos
•
Hormonas sustancias producidas por las células endocrinas que actúan a través del sistema circulatorio. Químicamente 2 tipos. o
Proteicas (insulina)
o
Esteroides (sexuales)
Hay hormonas en vegetales [FITOHORMONAS]; y en animales, tanto invertebrados como en vertebrados. •
Vitaminas conjunto químicamente sencillos derivados de glúcidos o lípidos. Son lábiles (=se estropean con facilidad, se deterioran con el calor y con la oxidación.) Son compuestos esenciales para los animales (esencial = imprescindible y no lo pueden fabricar). Han de ser ingeridas en la dieta procedentes de alimentos (de origen vegetal y microbiana). o
•
ACCIÓN; no se sabe cuál es su función, algunas colaboran con las enzimas y se llaman COENZIMAS. Son necesarias en pequeñas dosis, en exceso : HIPERVITAMINOSIS, en déficit: HIPOVITAMINOSIS y produce enfermedades.
ENZIMAS o
Proteínas catalíticas (definición)
o
Estructura química: son heteroproteínas con dos partes. Una parte formada por aminoácidos y otra parte formada por otra sustancias.
Inorgánicas cofactor
Orgánicas coenzimas
Cofactor (inor) ENZIMA COMPLETA = aminoácidos + Coenzima (org) o
¿Cómo actúan las enzimas?
A(sustrato) B (producto) // Con y sin enzima. Con enzima la velocidad es mayor, porque la enzima se une de forma específica al sustrato haciéndolo que el salto energético para pasar de A, a B sea menor. “CADA ENZIMA SÓLO RECONOCE UN DETERMINADO SUSTRATO” Enzima 1 S2 E2
237
o
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Nomenclatura de la enzimas
Sufijo -ASA Aludiendo a la acción que cataliza (HIDROLASA) Prefijo Aludiendo al sustrato al que actúa (LIPASA) Aludiendo al sustrato sobre el que actúa y a la reacción que cataliza (GLUTÁMICODESHIDROGENASA[actúa sobre el ácido glutámico, quitándole hidrógeno. o
Factores que influyen en la acción enzimáticas
Superficie de contacto. Enzima-Sustrato(E - S)[cuanto mayor sea la superficie de contacto E-S mayor será la actividad enzimática]
PH: cada enzima tiene un pH óptimo de actuación y unos límites por encima o por debajo de los cuales la enzima deja de actuar.
Temperatura: cada enzima tiene una Tª óptima de actuación y unos límites por encima o por debajo de los cuales la enzima deja de actuar.
10. ácidos nucleicos Compuestos formados por: C, H, O, N y P . Se hallan fundamentalmente en el núcleo de la célula. Son macromoléculas (la ostia) formada por la polimerización de unidades más pequeñas llamadas NUCLEÓTIDOS. 10.1 los nucleótidos Es un compuesto formado por: -D-RIBOSA - un ácido fosfórico
-una pentosa
-D-2-DESOXIRRIBOSA ADENINA -Una base nitrogenada PÚRICA GUANINA TIMINA PIRIMIDÍNICA CITOSINA LIRACILO Ver cuaderno
-D-Ribosa + Uracilo + Ac. fosfórico
238
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Los nucleótidos se unen entre sí de la siguiente forma. El C3 del primer nucleótido pierde un OH, el ac fosforico del C5 del 2º nucleótido pierde un OH, se forma un puente de oxígeno y se desprende 1 H2O. Ver el ejemplo del cuaderno. 10.2 ácido desoxirribonucleico (ADN) •
El ADN es una molécula formada por nucleótidos que poseemos. -D-2-desoxirribosa
o o
1 molécula de ácido fosfórico
o
1 base nitrogenada
Púrica A, G
Pirimidinica, T, C [Uracilo NO] El ADN humano tiene una longitud de 3.000.000.000 de pares de nucleótidos. ¿Qué estructura espacial tiene el ADN? En 1957 unos científicos con CHARGAFF observaron que todos los ADN de todos los sv tienen una característica común. La cantidad de [A] = [T] [(concentración de adenina o la de timina)] y hay [G]=[C]. En 1953, WATSON y CRICK establecieron el modelo de doble hélice de ADN. La molécula de ADN está formada por una doble cadena de nucleótidos plegada espacialmente en forma de hélice. Las dos cadenas son complementarias, si en una hay nucleótido de ADENINA, en la complementaria hay nucleótido de TININA, y lo mismo con GUASINA y CITOSINA. Ambas cadenas son antiparalelas, es decir, poseen la misma dirección pero sentidos opuestos (3'5' y 5'3'). Lo que hace que las bases nitrogenadas queden hacía el interior de la doble hélice y las desoxirribosas y los ácidos fosfóricos hacía el exterior. La doble hélice se estabiliza mediante puentes de hidrógeno establecidos entre A-T(2) y G-C(3). Si se destruyen los puentes de hidrógeno, el ADN se desnaturaliza. En el ADN están contenidos los caracteres hereditarios y es exclusivo de cada sv.
239
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
10.3 el ácido ribonucleico. (=ARN) -Sus nucleótidos contienen: Púricas =A, G 1 ácido fosforico + D-Ribosa + Base nitrogenada Pirimidinica: C, U [timina NO] -El ARN puede estar dentro y fuera del núcleo de la célula y su misión es “interpretar y ejecutar las órdenes escritas ene l ADN.”Hay diversos tipos de ARN o
ARNn (ARN nucleolar) nucleolo y se cree que sirve para fabricar ribosomas.
o
ARNr (ARN ribosómico) forma parte de los ribosomas (citoplasma), es el lugar donde se fabrican las proteínas.
o
ARNm (ARN mensajero) “copia” las órdenes contenidas en un fragmento de ADN y las saca al citoplasma, en concreto a los ribosomas, para su posterior utilización. El mensajero es fabricado en el núcleo, copia el ADN según el principio de complementariedad de las bases y es utilizado en el ribosoma, e inmediatamente después es destruido[ADN A T C G]
[ARN U A G C] o
ARNt (ARN transferente) está en el citoplasma y su misión es aportar aa para fabricar proteínas según las órdenes contenidas en el mensajero con las equivalencias del código genético.
•GLUCOSA - monosacárido más abundante, es el azúcar de la sangre (la única) y el azúcar de algunas frutas. •GALACTOSA - es un componente de la lactosa. •FRUCTOSA - es el azúcar de todas las frutas. Normalmente los monosacáridos se hallan ciclados, gracias ala formación de un puente de oxígeno(que sacas de la fórmula) entre el C carbonilo y el penúltimo de la cadena lineal
240
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Ciclos metabólicos
Etimológicamente el origen de la palabra metabolismo procede del griego metabolé (μεταβολισμος) que significa cambio, transformación.
El metabolismo es el conjunto de reacciones bioquímicas común en todos los seres vivos, que ocurren en las células, para la obtención e intercambio de materia y energía con el medio ambiente y síntesis de macromoléculas a partir de compuestos sencillos con el objetivo de mantener los procesos vitales (nutrición, crecimiento, relación y reproducción) y la homeostasis.
Cada una de las sustancias que se producen en este conjunto de reacciones metabólicas se denomina compuestos endógenos o metabólicos.
Los objetivos del metabolismo son: Obtención de energía química que es almacenada en los enlaces químicos fosfato del ATP. Transformación de sustancias químicas externas en moléculas utilizables por la célula. Construcción de materia orgánica propia a partir de la energía y de las moléculas obtenidas del medio ambiente. Estos compuestos orgánicos almacenan gran cantidad de energía en sus enlaces. Catabolismo de estas moléculas para obtener la energía que necesitan las células para realizar diferentes tipos de trabajo biológico. Tradicionalmente se ha separado el metabolismo en anabolismo y catabolismo, según las necesidades energéticas de las células o las necesidades de síntesis de determinadas moléculas: Estos dos procesos, catabolismo y anabolismo integran el metabolismo celular.
Tipos de metabolismo: Metabolismo autótrofo fotosintético: La fuente de carbono procede del anhídrido carbónico (CO2) y la energía de la luz solar. Metabolismo autótrofo quimiolitotrófico: La fuente de carbono también procede del CO2 pero la energía procede de reacciones químicas exotérmicas inorgánicas. Metabolismo heterótrofo: La fuente de carbono procede de moléculas orgánicas y la energía procede de la oxidación de estás moléculas orgánicas absorbidas a través de la membrana celular. Dentro del metabolismo energético se distinguen distintas etapas con una secuencia de reacciones bioquímicas concretas o rutas metabólicas y que reciben un nombre específico según el compuesto que originan o la función que integran, como por ejemplo: Glucólisis. Ciclo de Krebs. Fosforilación oxidativa. Metabolismo basal. Es el consumo de energía de una persona acostada y en reposo. Representa el gasto energético necesario para mantener las funciones vegetativas (respiración, circulación, etc.). La glucólisis o glicólisis o ruta de EMBDEN-MEYERHOF es la secuencia metabólica consistente en diez reacciones enzimáticas, en la que se oxida la glucosa produciendo dos moléculas de piruvato
241
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
y dos equivalentes reducidos de NADH o NADH, que al introducirse en la cadena respiratoria, producirán dos moléculas de ATP.
La glucólisis es la única vía en los animales que produce ATP en ausencia de oxígeno. Los organismos primitivos se originaron en un mundo cuya atmósfera carecía de 02 y por esto, la glucólisis se considera como la vía metabólica más primitiva y por lo tanto, está presente en todas las formas de vida actuales. Es la primera parte del metabolismo energético y en las células eucariotas ocurre en el citoplasma.
En esta fase, por cada molécula de glucosa se forman 2 ATP y 2 NADH La reacción global de la glucólisis es: Glucosa + 2 NAD+ + ADP + 2 Pi → 2 NADH + 2 piruvato + 2 ATP + 2 H2O + 4 H+ Partes de la glucólisis La glucólisis se divide en dos partes:
En la primera parte la glucosa es fosforilada con el gasto energético de una molécula de ATP y la presencia de una enzima glucoquinasa para dar glucosa-6-fosfato, que se isomeriza para formar fructosa-6-fosfato con la ayuda de la enzima fructofosfoisomerasa. A partir de la fructosa-6-fosfato y con gasto de otra molécula de ATP se forma la fructosa-1,6-bifosfato. Hasta esta parte se gastan dos moléculas de ATP. Esta es una reacción irreversible en la que intervienen la glucosa y el ATP, además de ser indispensable el catión Mg2+ y consta de cinco reacciones bioquímicas. En la segunda parte de la glucólisis, la fructosa-1,6-bifosfato se escinde en dos moléculas: gliceraldheído-3-fosfato y dihidroxiacetona-fosfato, por medio de una enzima aldolasa. La dihidroxiacetona-fosfato se transforma en gliceraldheido-3-fosfato por lo que la glucólisis se multiplica por dos a partir de aquí. El gliceraldheído-3-fosfato, libera un electron que es aceptado por un NAD+ (que se transforma en NADH); mediante esta reacción la molécula acepta a un Pi. Este mismo P, en el siguiente paso es liberado para formar una molécula de ATP (2 por cada molécula de glucosa. En el noveno paso, se obtiene una molécula de ac. pirúvico mediante una reacción en la que se forma otro ATP. El rendimiento total de la glucólisis es de 2 ATP y 2 NADH (que dejarán los electrones H en la cadena de transporte de electrones para formar 3 ATP por cada electrón). Con la molécula de ac. pirúvico, mediante un paso de oxidación intermedio (en el que un grupo acetilo se une a la CoA, formando acetilCoA), se puede entrar al Ciclo de Krebs (que junto con la cadena de transporte de electrones se denomina "respiración". El ciclo de Krebs o del ácido cítrico, se compone de una serie de reacciones químicas que ocurren en la vida de la célula y su metabolismo. Fue descubierto por Sir Hans Adolf Krebs (1900-1981). Dicho ciclo se produce dentro de la mitocondria en las eucariotas y en el citoplasma en las procariotas. Es parte del desarrollo del metabolismo en los organismos aeróbicos (utilizando oxígeno como parte de la respiración celular). Los organismos anaeróbicos usan otro mecanismo, como es la glucólisis, otro proceso de fermentación independiente al oxígeno.
El ciclo de Krebs es una ruta anfibólica, catabólica y anabólica a la vez. Su finalidad es oxidar el acetil-CoA (acetil coenzima A) que se obtiene de la degradación de hidrato de carbono, ácidos grasos y aminoácidos a dos moléculas de CO2.
El balance final es:
242
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Acetil-CoA + 3 NAD+ + FAD + GDP + Pi + H2O --> 2 CO2 + 3 NADH + 3H+ + FADH2 + GTP + CoA
243
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Ciencias Sociales
Las Ciencias Sociales es el punto de partida para el estudio de las demás disciplinas sociales y su conceptualización es diversa, ya que se le ameritan variadas definiciones. Por ejemplo: Podemos decir que las Ciencias Sociales son aquellas que estudian el comportamiento del hombre que vive en la sociedad. Pero esta definición está muy generalizada ya que esto puede aplicar a la Sociología, Antropología, Psicología, en fin. Otra definición podría ser que estudian el comportamiento del hombre y los distintos aspectos de la sociedad. Otros entienden que las Ciencias Sociales son el intento de descubrir y explicar patrones de comportamiento de las personas y el grupo de personas. Métodos de las Ciencias Sociales. Las Ciencias Sociales se vale de métodos para la solución de problemas que se le presentan a los individuos de la sociedad. Estos son: El método de apelar a lo sobrenatural: Es la búsqueda de soluciones a través de alguna fuente ultraterrenal. Este método es conocido por nosotros ya que muchas personas son supersticiosas. Apelan a los milagros, ritos, brujeria,etc. El método de acudir a la autoriadad humana: Aquí se involucra a otra persona para que resuelva o ayude a resolver los problemas que se están confrontando. Ejemplo: Psiquiatra, autoridad legal. El método de acudir a nuestro propio conocimiento: Solucionamos los problemas acudiendo a los conocimientos teóricos y prácticos que hemos adquirido. La intuición: No es un método pero es un medio que puede llegar a ser efectivo para la solución del problema. Orígenes de las Ciencias Sociales: El origen de las Ciencias Sociales tiene mucha relación con la Filosofía (que etimológicamente significa “amor a la sabiduría”) Veamos por qué:
244
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El surgimiento de las Filosofías tiene que ver con interrogantes que se formulaban los hombres en la antigüedad, De dónde venímos?, Que somos?, Para dónde iremos?, Para qué sirven éstas cosas?, Preguntas que trataron de encontrarle respuestas utilizando -en la mayoria de los casos- la observación y el razonamiento. Los cuestionamientos han conllevado a dos concepciones: El mundo es el producto de la creación espiritual de una divinidad (Dios). Todo lo existente en el producto de un larguísimo proceso de desarrollo histórico que evolucionó hasta producir un hombre capaz de razonar. Clasificación de las Ciencias sociales: Duverger considera dos tipos de clasificación: Una vertical, según los diversos aspectos de la vida social dentro de un mismo grupo, desatándo las siguientes disciplinas: Demografía. Economía. Sociología Religiosa. Ciencias Políticas. Sociología del Derecho. El segundo tipo es la horizontal, según las diversas categorías de grupos sociales en las que figuran: Etnografía. Historia. Sociología Urbana. Sociología Rural. Las tres ciencias producto de la actividad del hombre son: •Economía. •Derecho. •Ciencias Políticas. Las tres ciencias que estudian al hombre social son:
245
•Antropología.
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
•Historia. •Sociología.
Historia universal y de México La historia es el estudio de los hechos y eventos del pasado que nos ayuda a comprender el presente. La palabra "Historia" deriva del griego Οιδa ("yo sé"), de Οιδa derivó a Ιστορια ("investigación o información") y de allí pasó al latin Historia que se conservó en el español.
Enfoques Existen dos enfoques para este estudio:
Enfoque clásico: la historia es el período que comienza con la aparición de la escritura y se prolonga hasta la actualidad; desde este punto de vista, gran número de pueblos de la Tierra no tienen historia hasta que se produce su contacto con sociedades con escritura. Ejemplo: Historia de los pueblos primitivos de Norteamérica (a partir del contacto con europeos). Enfoque multiculturalista: historia es el período dentro del cual es posible obtener o reconstruir un relato fiable de los acontecimientos que afectan a un grupo humano. Ejemplo: Historia de los pueblos amerindios de Norteamérica (a partir de los datos de la arqueología, tradición oral e historiografía referencial). Los acontecimientos ocurridos antes del periodo histórico se denominan prehistoria. Los acontecmiento situados en un período de transición entre la prehistoria y la historia son denominados protohistoria.
Sin embargo, otra nomenclatura designa a la ya explicada prehistoria como protohistoria, siguiendo la lógica de que esa "prehistoria" también forma parte de la historia. Además de que el prefijo "proto" significa primero. Luego, protohistoria: "la primera historia" Edad Contemporánea La serie de guerras civiles en la Inglaterra del siglo XVII llevó a la generación de un nuevo sistema político, la democracia, y de una nueva manera de entender la economía, el industrialismo, que se retroalimentaron para producir la Revolución industrial. Tras superar el sistema esclavista debido a la pérdida de sus colonias americanas y gracias al dominio de nuevas fuentes energéticas (merced a la invención de la máquina de vapor), Inglaterra conquistó un imperio que abarcó la cuarta parte de las tierras emergidas, hacia finales del siglo XIX. Al mismo tiempo, el modelo industrial fue exportado a otras regiones. Otras naciones europeas, Portugal, España... con colonias en América se mantuvieron en un sistema económico de servidumbre y escavitud hasta finales del XIX lo cual retrasó su desarrollo industrial. Como consecuencia de la expansión colonialista de las potencias industriales, las culturas no occidentales debieron elegir entre occidentalizarse o perecer. Rusia lo hizo en la época de Pedro I el Grande. El Imperio Otomano se negó renuentemente, hasta el siglo XIX. China lo hizo sólo después del desastre que significó la Guerra del Opio, mientras que la India fue invadida
246
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
militarmente por Inglaterra. Y Japón, tras obligársele a abrirse al comercio exterior en 1853, empezó su occidentalización forzada en la Era Meiji (1868). Etiopía también hizo importantes reformas bajo Menelik II pero no fueron suficientes para transformar la economía del imperio. Otra consecuencia del Industrialismo fue la mejoría de las condiciones de vida, que llevó a las naciones industrializadas a alcanzar los mayores estándares de vida experimentados por la Humanidad en cualquiera de sus fases. Esto incluyó desagradables consecuencias colaterales, tal y como la explosión demográfica, el aumento de la presión sobre el medio ambiente y la pérdida de biodiversidad a nivel planetario. Las teorías de Thomas Malthus afirmaban que el excesivo crecimiento poblacional puede poner a la Humanidad en riesgo de extinción, sin embargo las mejoras en agricultura permiten hoy día alimentar al doble de población que la que actualemente existe a condición de que haya un reparto equitativo de la riqueza, por otra parte las sociedades post-industriales muestran un crecimiento negativo de sus poblaciones y parece que esa es la tendencia normal independientemente de consideraciones geográficas o culturales. Bomba atómica sobre Nagasaki, 9 de agosto de 1945 Buzz Aldrin sobre la superficie lunar, 20 de julio de 1969Ver: Revolución Francesa y Guerras Napoleónicas Siglo XX El siglo XX vio dos conflagraciones bélicas de proporciones nunca conocidas (la Primera Guerra Mundial, y la Segunda Guerra Mundial), ambas originadas en centroeuropa. Los movimientos fascistas que llegarón al poder en varios estados de Europa implementarón sistemas de gobierno nacionalistas, entre los cuales el de la Alemania nazi es el mas celebre representante. A partir del final de la Segunda guerra en 1945, emergió un orden bipolar encabezado por Estados Unidos (EE.UU)y la Unión de Repúblicas Socialistas Soviéticas (URSS), conocido como guerra fría y cuyas piedras de toque eran el enfrentamiento entre el sistema económico-social capitalista y el sistema económico-social marxista comunista. Ambos sistemas chocaron en diversas ocasiones en países terceros en una conflagración en busca de aumentar los niveles de influencia de cada bando; Cuba, Centroamérica, Vietnam, Corea, Etiopía, Angola, Mozambique. Finalmente, después de la Perestroika, el sistema comunista de la URSS se derrumbó y EE.UU quedó como mayor poder político-militar del mundo, en 1991, la actual tendencia política es a considerar la existencia de un choque de civilizaciones). Por otra parte los históricamente recurrentes conflictos bélicos en europa occidental se han dejado a un lado, haciendo posible la contrucción de la Unión Europea (UE). En Asia a partir de los años 1980, China experimenta una sostenida tasa de crecimiento económico, que la llevó a formar parte de las diez economías mas grandes del mundo al finalizar el siglo, haciendo que la mayoría de proyecciones la ubiquen como la que será la mayor economía del siglo XXI. Continentes densamente poblados como Africa y la parte sur de America siguen sumidos en el subdesarrollo. A ello Africa suma la pandemia de Sida que unida a las frecuentes guerras civiles diesman su población. La última mitad del siglo ha visto el ascenso de la era de la información y la globalización. La exploración espacial está llegando a todos los rincones del sistema solar. El ADN fue descubierto, y el genoma humano secuenciado, dando esperanza para la cura de las enfermedades. El número de publicaciones científicas anuales supera al número de las publicadas antes de 1900, y se dobla aproximadamente cada 15 años. LA INDEPENDENCIA DE MÉXICO.
Desde los protagonistas de los acontecimientos y sus contemporáneos hasta la actualidad, en cada época y por cada autor se han intentado resumir en varias las causas de la independencia,
247
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
destacando algún aspecto parcial de acuerdo con la perspectiva histórica del momento, por lo que el resultado es que hoy disponemos de una extensa relación de posibles motivos originarios de la más variada naturaleza, y de difícil análisis, cuya simple enumeración resultaría poco explicativa y hasta cierto punto engañosa. Más importante sería analizar el nivel de generalidad de cada una de estas causas y situarlas en la perspectiva adecuada, ponderando su importancia relativa respecto a las demás y en cada uno de los territorios afectados: lo que puede actuar como causa decisiva o tomarse como característico en México (núcleo esencial del virreinato de Nueva España)
Por ello, la determinación genérica de las causas de la independencia, como modelo teórico, debe remitir siempre al análisis del proceso y de sus características específicas en cada uno de los territorios. Desde el siglo XIX, las causas de la independencia se han venido presentando divididas en dos grupos: causas internas de carácter negativo y causas externas de carácter positivo.
Las causas internas Pueden ser consideradas como causas internas aquéllas que se originaron en el interior de la sociedad mexicana como resultado de su propio desarrollo histórico, y se caracterizan por destacar algunos aspectos negativos de la acción colonizadora española. En general, todos estos posibles motivos fueron señalados desde los primeros momentos del proceso independentista, a veces por los mismos protagonistas de los acontecimientos, por lo que suelen tener una intención más justificativa que explicativa. Así, por ejemplo, cuando se atribuye el deseo de independencia a la corrupción administrativa y la inmoralidad burocrática por parte de las autoridades españolas, o a la relajación de las costumbres del clero, se trata de destacar algunos casos, que sin duda fueron tenidos en cuenta por los patriotas, pero a los que no puede atribuirse un carácter generalizado a toda la administración y a todos los territorios.
En México, también el bajo clero, como muestra la destacada participación de los sacerdotes Miguel Hidalgo y José María Morelos, colaboró con los revolucionarios y tuvo una participación destacada en la independencia. Otras posibles causas aducidas reiteradamente, como la crueldad y el despotismo con que eran tratados los indígenas y las restricciones culturales impuestas por las autoridades españolas, están en abierta contradicción con algunos datos de la realidad.
En el virreinato de la Nueva España, muchos indígenas militaron en el bando realista, lo que dio a los enfrentamientos en esos territorios un carácter de verdadera guerra civil. La existencia de universidades en muchas de las más importantes ciudades hispanoamericanas, así como la formación cultural en las mismas de los propios caudillos independentistas son otros tantos argumentos en contra de la generalización de las razones mencionadas, necesitadas de precisiones que alteran considerablemente su interpretación, como sucede con la rivalidad entre criollos y españoles, con la consiguiente postergación de aquéllos, y el establecimiento de un régimen de monopolios, gabelas y trabas, que dificultaba el desarrollo de la economía americana y frenaba el crecimiento de su capacidad productiva.
La legislación española no diferenciaba entre los españoles peninsulares y americanos, por lo que el problema se planteaba, igual que en España, entre los naturales de una región, provincia o reino que aspiraban a ocupar los puestos de la administración en su tierra y los que provenían de otras zonas, ocupaban los cargos y desplazaban a los naturales, generalmente por residir en la corte o tener valedores en ella. En cuanto al sistema económico, su influencia se vio disminuida por el incumplimiento sistemático de la normativa, el contrabando y la escasa capacidad industrial de los territorios americanos. Más bien fueron las medidas económicas de carácter liberal que venían
248
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
implantándose desde el siglo XVIII las que estimularon en la burguesía criolla un creciente deseo de libertad mercantil.
Mayor importancia que las mencionadas hasta aquí tuvieron las siguientes causas: La concepción patrimonial del Estado, toda vez que las Indias estaban vinculadas a España a través de la persona del monarca. Las abdicaciones forzadas de Carlos IV y Fernando VII, en 1808, rompieron la legitimidad establecida e interrumpieron los vínculos existentes entre la Corona y los territorios hispanoamericanos, que se vieron en la necesidad de atender a su propio gobierno.
La difusión de doctrinas populistas. Desde santo Tomás de Aquino hasta el español Francisco Suárez, la tradición escolástica había mantenido la teoría de que la soberanía revierte al pueblo cuando falta la figura del rey. Esta doctrina de la soberanía popular, vigente en España, debió de influir en los independentistas tanto como las emanadas del pensamiento ilustrado del siglo XVIII.
La labor de los jesuitas. Las críticas dirigidas por los miembros de la Compañía de Jesús a la actuación española en América después de su expulsión de España en 1767, plasmadas en abundantes publicaciones, tuvieron gran importancia en la generación de un clima de oposición al dominio español entre la burguesía criolla.
Las enseñanzas impartidas por las universidades y el papel desarrollado por las academias literarias, las sociedades económicas y la masonería. La difusión de ideas liberales y revolucionarias contrarias a la actuación de España en América ejerció una gran influencia en la formación de algunos de los principales líderes de la independencia, cuya vinculación con la Logia Lautaro les proporcionó el marco adecuado para la conspiración.
Las causas externas
Pueden ser consideradas como causas externas aquellas que actuaron sobre el proceso independentista desde fuera de los dominios imperiales españoles, en especial desde Europa y Estados Unidos. Algunas de estas causas, como la Declaración de Independencia estadounidense o la Revolución Francesa, cuya influencia en la historia mundial es evidente, actuaron más como modelos que como causas directas del proceso. Mayor importancia tuvo las ideas enciclopedistas y liberales procedentes de Francia. España se levantó contra Napoleón el 2 de mayo de 1808.Este suceso facilitó la independencia de México y otros países de latino América. Así como las relaciones de convivencia de muchos de los máximos dirigentes independentistas, como Francisco de Miranda, José de San Martín, Simón Bolívar, Mariano Moreno, Carlos de Alvear, Bernardo O'Higgins, José Miguel Carrera Verdugo, Juan Pío de Montúfar y Vicente Rocafuerte, que se encontraron con frecuencia en Londres, así como los contactos que mantuvieron con los centros políticos de Estados Unidos y Gran Bretaña. Ello les permitió equiparse ideológicamente, pero también les proporcionó la posibilidad de contar con apoyos exteriores y las necesarias fuentes de financiación para sus proyectos.
El país empezó a hervir en conspiraciones.
249
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Las más importantes fueron las de Valladolid (hoy Morelia) y la de Querétaro. En la primera tomaron parte don Mariano Quevedo y don José Michelena, don José María García Obeso, don Mariano Ruiz Chávez y otros.
Eran militares, licenciados o sacerdotes. Fueron descubiertos y castigados levemente. En la conspiración de Querétaro intervinieron el Corregidor Don Miguel Domínguez, su esposa doña Joséfa Ortíz de Domínguez, los capitanes Ignacio Allende, Juan Aldama, Mariano Abasolo y Don Miguel Hidalgo y Costilla.
La conspiración de Querétaro
Mientras tanto, según sucedía en otros países hispanoamericanos, algunos criollos comenzaron a reunirse en secreto para planear cómo cambiar el gobierno virreinal. En 1810. Miguel Domínguez, corregidor (una clase de juez) de Querétaro, y su esposa, Josefa Ortiz de Domínguez, empezaron a reunirse con algunos militares, como Ignacio Allende y Juan Aldama. A las juntas también asistía Miguel Hidalgo y Costilla, el párroco de Dolores.
La conspiración fue descubierta, pero antes de que las autoridades pudieran apresara a los participantes, la valiente doña Josefa lo supo y consiguió avisarle a Allende. Éste cabalgó toda la noche para ir de San Miguel a Dolores sin que lo vieran y prevenir a Hidalgo: sus planes habían sido delatados.
El Grito de Dolores
Hidalgo y Allende adelantaron la fecha de su rebelión. De inmediato, en la madrugada del domingo 16 de septiembre, Hidalgo mandó tocar las campanas de la iglesia para reunir a la gente. Les recordó las injusticias que sufrían y los animó a luchar en contra del mal gobierno.
Ahora celebramos cada año el Grito de Dolores, pero esa madrugada el ambiente era tenso. Los hombres y las mujeres que siguieron a Hidalgo no eran un ejército; eran un pueblo que quería un gobierno justo. No tenían armas suficientes, pero tomaron palos, hondas, machetes e instrumentos de labranza. Hidalgo comenzó su marcha con seiscientos hombres, que pronto fueron casi ochenta mil. Lo seguían indios, mestizos, criollos y algunos españoles, militares, sacerdotes, peones y mineros iban mezclados, persiguiendo un mismo ideal de justicia.
En Atotonilco, Hidalgo tomó como bandera un estandarte con la Virgen de Guadalupe. Los insurgentes entraron sin resistencia a San Miguel el Grande (hoy San Miguel Allende), Celaya y Salamanca. Después llegaron a Guanajuato y exigieron a las autoridades que se rindieran. Pero éstas se encerraron con los españoles ricos en la alhóndiga (un almacén de granos) de Granaditas, para defenderse, tomada por asalto gracias al heroísmo de Juan José Martínez (Pípila), un joven que cubierto con una loza de piedra, desafió las balas enemigas y llegó a la puerta le prendió fuego.
250
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
La tropa tomó el edificio, mató a sus ocupantes y saqueó la ciudad, sin que Hidalgo ni Allende pudieran evitarlo. Siguieron a Valladolid, que se rindió sin luchar, pues sus habitantes estaban atemorizados por lo que había sucedido en Guanajuato
Cerca de Valladolid, José María Morelos habló con Hidalgo, quien le encargó que levantara en armas el sur y tomara Acapulco. Un puerto les permitiría comunicarse con el exterior. Mientras tanto, en otros lugares habían estallado más revueltos.
Hidalgo avanzó hacia la Ciudad de México. En las cercanías de la capital, en el Monte de las Cruces, venció al ejército realista. Tras ese triunfo. Allende propuso que fueran sobre la capital, pero Hidalgo se negó. Tal vez consideró que no tenía hombres y armas suficientes, o terminó que la ciudad fuera saqueada como Guanajuato. El caso es que prefirió regresar a Valladolid; desalentados por esa decisión, muchos de sus seguidores abandonaron el ejército. Poco después, los insurgentes fueron derrotados por Félix María Calleja en Aculco, en el hoy estado de México. Quedaron casi aniquilados y perdieron muchas armas y provisiones. Hidalgo se retiró a Guadalajara, en donde suprimió la esclavitud y los tributos que pagaban los indios. En enero de 1811, los Insurgentes fueron vencidos de nuevo por Calleja, de manera definitiva, en Puente de Calderón, muy cerca de Guadalajara.
Con unos dos mil soldados, Hidalgo y Allende marcharon al norte para comprar armas en la frotera. En Coahuila, en Norias del Baján (o Acatita del Baján), fueron traicionados y apresados, junto con Aldama y José Mariano Jiménez. En la ciudad de Chihuahua se les condenó a muerte. Hidalgo fue fusilado el 30 de julio de 1811. Su cabeza, y las de Allende, Aldama y Jiménez, fueron puestas en jaulas de hierro, en las esquinas de la alhóndiga, en Guanajuato como advertencia a la población.
La campaña de Morelos
Morelos levantó un ejército no muy numeroso pero bien organizado, que fue sumando triunfos. En febrero de 1812, se apoderó de Cuautla. Calleja sitió la ciudad, para rendirla por hambres y por sed, pero sus habitantes la defendieron con heroísmo. Cuando Morelos resolvió salir, los logró con muy pocas bajas. Después reorganizó su ejército y tomó Orizaba, Oaxaca y Acapulco.
Morelos decidió que hacía el gobierno que unificara el movimiento insurgente y organizó un congreso que redactó la Constitución de Apatzingán, que fue el primer conjunto de leyes mexicanas. Nunca entró en vigor, porque los insurgentes comenzaron a sufrir una derrota tras otra. Morelos fue hecho prisionero cuando escoltaban al Congreso camino a Tehuacán Fue fusilado en San Cristóbal Ecatepec, en el ahora estado de México, el 22 de diciembre de 1815.
El gobierno virreinal intentó tranquilizar el país, pero el descontento continuaba. Habían muerto los primeros caudillos de la independencia, pero nuevos jefes continuaron en pie de guerra. Entre otros, Nicolás Bravo, Pedro Moreno, Guadalupe Victoria y Vicente Guerrero.
Mientras Hidalgo y Morelos combatían, en España el pueblo luchaba para expulsar a los franceses que la habían invadido en 1808. En ese tiempo, el gobierno que los españoles organizaron para oponerse a los franceses convocó a un congreso con representantes de toda la monarquía, en el
251
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
puerto de Cádiz. En América la noticia despertó gran interés, pues era la primera ocasión en que las autoridades españolas tomaban en cuenta a los criollos.
Algunos de los representantes, o diputados, tanto españoles como americanos querían que la situación cambiara; que hubiera más libertad y el gobierno y el rey obedecieran las leyes. Eran liberales. Para otros, lo mejor era mantener las cosas como estaban. Las Cortes y la Constitución de Cádiz. A las Cortes de Cádiz acudieron diecisiete diputados de la Nueva España. Exigieron que españoles e hispanoamericanos fueran iguales ante la ley; que se dejara de discriminar a las castas; que se abrieron más caminos, escuelas e industrias; que los habitantes de la Nueva España participaran en su gobierno; que hubiera libertad de imprenta y se declarara que la soberanía reside en el pueblo.
La Constitución Política de la Monarquía Española, el documento que produjeron las Cortes, se promulgó en marzo de 1812. Redujo los poderes del rey, estableció la igualdad ante la ley de peninsulares y americanos, y eliminó el tributo que pagaban los indígenas. Sin embargo, cuando las tropas de Napoleón fueron expulsadas de España en 1814, subió al trono Fernando Vll y se negó a gobernar conforme a la Constitución.
Los liberales fueron perseguidos, pero siguieron defendiendo sus ideas. Con el apoyo de parte del ejército, en 1820 obligaron a Fernando VII a reconocer la Constitución. El rey no tardó en descartarla y volvió a mandar como monarca absoluto, pero el breve tiempo en que la reconoció tuvo consecuencias muy importantes.
La Nueva España hacia 1820
En abril de 1817, el liberal español Francisco Javier Mina llegó a la Nueva España para luchar del lado insurgentes. Lo acompañaba el sacerdote mexicano Fray Servando Teresa de Mier.
Mina llegó a Soto la Marina, en el golfo de México, con tres barcos y poco más de trescientos hombres, que había armado con dinero conseguido en Inglaterra y en los Estados Unidos, países que tenían interés en debilitar a España. Mina recorrió el Bajió, ganó algunas batallas e intentó tomar Guanajuato. Seis mese después de su llegada, fue hecho prisionero y fue fusilado. Al llegar 1820, muchos insurgentes habían sido derrotados, se habían retirado o habían aceptado el indulto. Algunos seguían resistiendo. Entre otros, Guadalupe Victoría y Vicente Guerrero. Guerrero nació en Tixtla (ahora en el estado de Guerrero), en 1782. Peleó bajo las órdenes de Hermenegildo Galeana y de José María Morelos. Casi siempre salió victorioso; destacó por su valentía y su lealtad.
Triunfo de la Independencia Tras más de diez años de lucha, había ruina y miseria en vastas zonas del país. Tanto los realistas como los insurgentes habían cometido atropellos y el gobierno del virreinato no podía dominar la situación. Los habitantes de la Nueva España ya no lo apoyaban. Lo que más querían era que se restableciera la paz.
252
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Los españoles y los criollos ricos no deseaban obedecer la Constitución de Cádiz, que estaba de nuevo en vigor, porque les quitaba privilegios, así que apoyaron la independencia. También ellos querían la paz, y convencieron al virrey de que encargase al coronel criollo Agustín de Iturbide que acabara con Vicente Guerrero, para imponer el orden y terminar con la insurrección.
Guerrero conocía bien las montañas surianas y no fue posible derrotarlo. Valiéndose del padre de Guerrero, el virrey le ofreció perdonarlo si dejaba la lucha. El caudillo respondió: "La patria es primero".
Con el apoyo de los españoles y los criollos ricos, Iturbide le escribió a Guerrero pidiéndole que se reunieran para llegar a un acuerdo. Lo hicieron en Acatempan, donde Guerrero aceptó apoyara a Iturbide.
Guerrero sabía que eran muy escasas sus posibilidades de triunfo. Iturbide sabía que derrotar a Guerrero era el continuador de la lucha de Hidalgo y Morelos; Iturbide representaba el deseo de paz de la mayoría de la población y los intereses de los criollos ricos y de los españoles que vivían en América y que ya no querían depender de España. En febrero de 1821, respaldo por Guerrero, Iturbide firmó el Plan de Iguala o de las Tres Garantías: invitaba a los habitantes del virreinato a unirse para lograr la independencia. Las tres garantías eran: una religión única (la católica), la unión de todos los grupos sociales y la independencia. México sería una monarquía constitucional. Cada garantía se convirtió en un color para la bandera de la nueva nación. En agosto llegó a la Nueva España Juan O'Donojú, el último español enviado a gobernarla. Vio que casi todo el país apoyaba a Iturbide, así que firmó con él los Tratados de Córdoba, documento que reconocía la independencia. La rebelión de 1810 había concluido. La nueva nación tenía ahora que organizar su gobierno y reparar los destrozos de once años de lucha. Faltaban caminos y había grandes territorios deshabitados. La sociedad estaba desorganizada y el desorden político era abrumador.
PERSONAJES SOBRESALIENTES DE LA INDEPENDENCIA.
Hidalgo y Costilla, Miguel (1753-1811), padre de la patria, insurgente y sacerdote mexicano. Estudió en el Colegio de San Nicolás, donde dio cursos de filología y filosofía y llegó a ser rector, en la ciudad de Valladolid (actual Morelia). En 1778 fue ordenado sacerdote y en 1803 se hizo cargo de la parroquia de Dolores, en Guanajuato. Buen conocedor de las ideas ilustradas, trabajó para mejorar las condiciones económicas de sus feligreses, en su mayoría indígenas, enseñándoles a cultivar viñedos, la cría de abejas y a dirigir pequeñas industrias, tales como la producción de loza y ladrillos. En 1809 Hidalgo se unió a una sociedad secreta formada en Valladolid cuyo fin era reunir un congreso, para gobernar la Nueva España en nombre del rey Fernando VII, en ese momento preso de Napoleón y, en su caso, obtener la independencia del país. Descubiertos los conjurados, la insurrección se trasladó a Querétaro donde Hidalgo se reunió con Ignacio Allende y otros insurgentes. El 16 de septiembre de 1810, llevando un estandarte con la imagen de Nuestra Señora de Guadalupe, patrona de México, Hidalgo lanzó el llamado grito de Dolores que inició la revuelta y, acompañado de Allende, consiguió reunir un ejército formado por más de 40.000 mexicanos. Tomó las ciudades de Guanajuato y Guadalajara en el mes de octubre, pero a pesar de sus éxitos, Hidalgo no consiguió llegar a la ciudad de México. El 17 de enero de 1811 fue derrotado cerca de Guadalajara por un contingente de soldados realistas, en la batalla de Puente de Calderón. Hidalgo huyó hacia Aguascalientes y Zacatecas, pero fue capturado, juzgado
253
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
y condenado a muerte. Su cabeza, junto con la de Allende y otros insurgentes se exhibió, como castigo, en la alhóndiga de Granaditas de Guanajuato. Tras el establecimiento de la República Mexicana, en 1824, se le reconoció como primer insurgente y padre de la patria. El estado de Hidalgo lleva su nombre y la ciudad de Dolores pasó a llamarse Dolores Hidalgo en su honor. El 16 de septiembre, día en que proclamó su rebelión, se celebra en México el Día de la Independencia.
Allende, Ignacio María de (1769-1811), insurgente mexicano. Nació en San Miguel el Grande (que más tarde recibió el nombre de San Miguel de Allende, en su honor), en Guanajuato. Hijo de españoles, participó en la fallida conspiración de 1809. Posteriormente planeó, junto con Juan Aldama, el levantamiento de ese año, que fue denunciado. Miguel Hidalgo y Costilla decidió entonces el alzamiento en la madrugada del 16 de septiembre de 1810, en Dolores (Guanajuato). Tras varias luchas, la campaña victoriosa continuó hasta la batalla del Monte de las Cruces. Después, las derrotas ocasionaron divergencias entre los insurgentes y, en Zacatecas, los jefes militares retiraron del mando a Hidalgo y se lo otorgaron a Allende. El 21 de marzo de 1811 cayó prisionero con Hidalgo y otros insurgentes. Murió fusilado y su cabeza fue expuesta en la alhóndiga de Granaditas (Guanajuato). Sus restos reposan en la Columna de la Independencia en la ciudad de México. Ortiz de Domínguez, Josefa (1768-1829), patriota mexicana, sirvió de enlace entre los conspiradores de la independencia en 1810. Nació en Valladolid (Morelia) y estudió en el Colegio de San Ignacio de Loyola o de las Vizcaínas. En 1791 se casó con el corregidor de Querétaro, el licenciado Miguel Domínguez, por lo que se le apodó `la Corregidora'. En 1810 entró en contacto con el cura Miguel Hidalgo y Costilla y el capitán Ignacio María de Allende, a los que informó del desarrollo de la conspiración en Querétaro. Cuando los realistas descubrieron el lugar donde se guardaban las armas para la sublevación de octubre, persuadió a sus compañeros para que adelantaran la proclamación de la independencia al mes de septiembre. Fue apresada por las autoridades españolas y recluida en el convento de Santa Catalina de Siena, donde permaneció 3 años. Murió en 1829 en México.
Aldama, Juan (1774-1811), militar e insurgente mexicano. Nacido en San Miguel el Grande (actual San Miguel de Allende, en el estado de Guanajuato), desde 1809, siendo capitán del Ejército colonial español, comenzó a intervenir en los preparativos de la lucha independentista. El principal líder del movimiento, el sacerdote Miguel Hidalgo y Costilla, le nombró teniente coronel de las tropas insurgentes, con las que participó en la victoria del Monte de las Cruces (octubre de 1810). Intentó convencer a Hidalgo, con la ayuda de Ignacio María de Allende, de la necesidad de explotar ese triunfo y avanzar hacia la capital virreinal. Después de la derrota sufrida en la batalla de Puente de Calderón, en enero de 1811, se dirigió hacia el norte mexicano, pero el 21 de marzo de ese año fue apresado por los realistas junto a los más destacados dirigentes independentistas (Hidalgo, Allende y Mariano Abasolo), en Acatita de Baján (Coahuila). El 26 de junio murió fusilado, en Chihuahua, con Allende y el también jefe insurgente José Mariano Jiménez, entre otros.
Abasolo Ignacio (1783-1816), militar e insurgente mexicano. Nacido en Dolores (actual Dolores Hidalgo), pertenecía a una rica familia de hacendados y siguió la carrera castrense, ingresando en el Ejército colonial español. El 16 de septiembre de 1810 se unió al sacerdote Miguel Hidalgo y Costilla, quien ese mismo día había lanzado el denominado grito de Dolores en dicha localidad, inicio del movimiento independentista mexicano contra el dominio español. Entregó las armas de su regimiento, del que era capitán, y pronto ascendió en el escalafón de las tropas insurgentes, accediendo en octubre de ese año al grado de mariscal de campo y participando en la victoria del Monte de las Cruces de finales de ese mes. Después de la derrota de las fuerzas de Hidalgo en la batalla de Puente de Calderón (enero de 1811), Abasolo huyó hacia el norte y renunció al nombramiento de jefe de las tropas resistentes que hizo en su persona Ignacio María de Allende. El 21 de marzo siguiente fue apresado junto a los principales dirigentes independentistas (Hidalgo,
254
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Allende y Juan Aldama), en Acatita de Baján (Coahuila). Conducido con éstos a la ciudad de Chihuahua, un mes después resultó condenado a cadena perpetua por el virrey Francisco Javier Venegas y trasladado, en 1812, al castillo español de Santa Catalina (Cádiz), donde falleció cuatro años más tarde.
Morelos y Pavón, José María (1765-1815), sacerdote e insurgente mexicano, que se convirtió en el caudillo de la emancipación mexicana, tras la ejecución de Miguel Hidalgo y Costilla en 1811. Morelos nació en la actual Morelia (Michoacán), ciudad en la que también cursó sus estudios. Después de su ordenación sacerdotal (1797), fue párroco hasta que se unió a la rebelión de Hidalgo en 1810. Tras recibir el mando militar, no tardó en hacerse con el control de un amplio territorio en el sur de México; hacia finales de 1811, todos le reconocían como sucesor de Hidalgo. Tomó Acapulco en 1813 y, a finales de ese año, convocó el Congreso de Chilpancingo, que emitió una declaración de independencia, promulgó una Constitución y nombró a Morelos generalísimo del gobierno insurgente. En diciembre de 1813, las fuerzas realistas derrotaron en Santa María a Morelos, que se vio obligado a mantenerse en una guerra defensiva. Destituido de su cargo de generalísimo por el Congreso, formó parte del triunvirato del Supremo Gobierno en Apatzingán. Acosado por las tropas enviadas por el virrey Félix María Calleja del Rey, no pudo escapar y fue capturado por los realistas en noviembre de 1815, mientras protegía al Congreso en su retirada hacia Tehuacán. Tras ser acusado de herejía y despojado de sus hábitos por la Inquisición, fue entregado a las autoridades seculares y después fusilado.
Bravo, Nicolás (1786-1854), dirigente independentista mexicano. Nació en Chilpancingo. En 1811 se unió a las fuerzas de Hermenegildo Galeana, y llevó a cabo en el sur varias acciones ordenadas por José María Morelos. A pesar de que su padre fue sentenciado a muerte por el ejército realista español, Nicolás Bravo concedió el indulto a 300 prisioneros enemigos. Republicano, participó junto con Vicente Guerrero en el derrocamiento de Agustín de Iturbide. De corte centralista, se sublevó contra el presidente Guadalupe Victoria, en 1827, por lo que fue desterrado a Guayaquil (Ecuador). Regresó a México en 1829, y participó en la caída del presidente federalista Guerrero, que anteriormente había sido su compañero. En 1833, Antonio López de Santa Anna lo nombró jefe del Ejército del Norte. En 1854, se negó a participar en la revolución de Ayutla; y ese mismo año falleció en su ciudad natal.
Matamoros, Mariano (1770-1814), sacerdote e insurgente mexicano. Nacido en la ciudad de México, en 1789 completó sus estudios de bachiller en artes y teología, ordenándose presbítero siete años más tarde. Ejerció como párroco en la capital virreinal y, en 1811, cuando hacía lo propio en Jantetelco (actual estado de Morelos), se decretó su captura como sospechoso de albergar y promover ideas independentistas. Tras conseguir huir, en diciembre se unió en Izúcar (hoy Izúcar de Matamoros, en Puebla) a las filas insurgentes lideradas por el también sacerdote José María Morelos y Pavón, quien le nombró, un mes después, coronel de sus tropas. En febrero de 1812, conquistó Cuautla, ciudad que hubo de defender del asedio realista. En noviembre, ya como lugarteniente de Morelos, participó en la toma de Oaxaca y, en junio de 1813, éste le designó teniente general. El 23 de diciembre siguiente atacó la ciudad de Valladolid (actual Morelia), viéndose obligado a retirar sus efectivos. Perseguidos por las fuerzas de Ciriaco de Llano y Agustín de Iturbide (entonces militar realista), fue aprehendido en Puruarán (Michoacán) el 5 de enero de 1814. Un mes más tarde resultó fusilado en Valladolid.
Quintana Roo, Andrés (1787-1851), político y escritor mexicano. Nació en Mérida (Yucatán). Cursó leyes en la Universidad de México. Se unió a la causa insurgente con Ignacio López Rayón en Tlalpujahua. Difundió sus ideas en el Semanario Patriótico Americano, presidió la Asamblea Constituyente en 1813 y elaboró, con Carlos María Bustamante, la Constitución de Apatzingán. A la caída del Imperio de Agustín de Iturbide (1823), ocupó un lugar distinguido entre los diputados
255
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
que formaron los siguientes congresos y continuó escribiendo artículos políticos para El Correo de la Federación. Perteneció al grupo de los `poetas de la independencia'. Compuso la oda “16 de Septiembre”. Fue el primer presidente de la Academia de Letrán, fundada por Guillermo Prieto, Manuel Carpio y los hermanos Lacunza en 1836. Falleció en la ciudad de México, y sus restos mortales, junto con los de su esposa, Leona Vicario, descansan en la Rotonda de los Hombres Ilustres.
Guerrero, Vicente (1782-1831), militar y político mexicano, presidente de la República (1829). Nació en Tixtla. Luchó por la independencia (1810) desde las filas de José María Morelos y después de la captura de éste por los realistas apoyó el Congreso de Chilpancingo hasta su disolución y se refugió en las montañas para continuar la lucha, llegando a ser, con los años, el jefe de la insurrección en el sur. En 1820 se enfrentó al general Agustín de Iturbide, quien una vez en campaña le invitó a unirse en un esfuerzo de liberación en común. Aceptó el Plan de Iguala (1821) y pasó a luchar a las órdenes de Iturbide. Lograda la independencia, y ante el sesgo que tomaban los acontecimientos se sublevó en 1822 contra el despotismo de Iturbide, proclamado emperador constitucional. Formó parte de la Junta provisional y, pese a ser derrotado en las elecciones por Gómez Pedraza, ocupó la presidencia (1829) gracias al levantamiento de los liberales (motín de la Acordada). Se enfrentó al intento de reconquista protagonizado por Barradas en nombre de España, rechazó el ofrecimiento del embajador Joel Roberts Poinsett de comprar Texas, y defendió el federalismo frente a los repetidos y constantes intentos de los grupos centralistas, que pretendieron inhabilitarle para gobernar. Favorable a la reforma social, luchó contra los privilegios de la aristocracia, pero fue derrocado por el general Anastasio Bustamante en el mismo año (1829). Tras reiniciar la lucha desde el sur, fue hecho prisionero en Acapulco, sometido a juicio y fusilado en 1831, en Cuilapán (en la actualidad Cuilapán de Guerrero).
Agustín de Iturbide (1783-1824), militar y político mexicano, emperador de México con el nombre de Agustín I (1822-1823). Nació en Valladolid (Michoacán), hijo de un terrateniente español.
La independencia de México Ingresó en las milicias de su ciudad natal como subteniente de bandera en 1797. Aceptó el gobierno del virrey Pedro Garibay tras el derrocamiento de José de Iturrigaray en 1808. Siendo alférez del Ejército español se negó a colaborar con la rebelión del cura Miguel Hidalgo y participó en la detención de los conspiradores de Valladolid en 1809. Huyó a México cuando Hidalgo entró en la ciudad en 1810 y ese mismo año participó en la batalla del Monte de las Cruces y ascendió a capitán. Fue destinado al sur del país en 1811 y combatió a las guerrillas insurrectas de Albino García, al que apresó en 1812, y de Ramón López Rayón, al que derrotó en el puente de Salvatierra en 1813. Ese año ascendió a coronel y fue nombrado comandante general de la provincia de Guanajuato, donde siguió persiguiendo a los rebeldes y empezó a ser conocido como 'el Dragón de fierro.
En 1813 fue acusado por el coronel Romero de mantener la lucha para obtener beneficios económicos con el comercio, acusación que se repitió en 1814 por parte del teniente coronel Crespo Gil y del propio Romero. Un año después, siendo comandante general del Ejército del norte, venció a José María Morelos, pero fracasó ante los hermanos Rayón en Cóporo. A causa de las denuncias presentadas por los comerciantes de Guanajuato, fue cesado en 1816 por el virrey Félix María Calleja del Rey acusado de malversación y abuso de autoridad; aunque resultó absuelto gracias al apoyo del auditor de guerra Bataller, se retiró a sus tierras y en 1817 se estableció en México.
En 1820 participó en la conspiración denominada de la Profesa para oponerse a la implantación de la Constitución de 1812 en México, después del éxito alcanzado por el pronunciamiento liberal de
256
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Rafael del Riego en España. Ese mismo año, el virrey Juan Ruiz de Apodaca le nombró comandante general del sur, con la misión de buscar un acercamiento a Vicente Guerrero y a Asensio, que mantenían la insurgencia (insurrección) en aquellos territorios. Con el apoyo de los obispos de Guadalajara y Puebla, de los comerciantes españoles y de los terratenientes criollos opuestos al liberalismo, logró equipar un ejército numeroso y, tras llegar a un acuerdo con Guerrero el 24 de febrero de 1821 en la población de Iguala, publicó un programa político que pasó a denominarse Plan de Iguala (o de las Tres Garantías), en el que proclamaba sus objetivos: religión, independencia y unión.
En agosto de ese mismo año firmó con el virrey O'Donojú, recién llegado a Nueva España, el Tratado de Córdoba y el 27 de septiembre entró en la capital, tras la evacuación de las tropas españolas. Al día siguiente una Junta de Gobierno provisional, presidida por Iturbide, y en la que también figuraba O'Donojú, proclamó la independencia de México.
El 25 de febrero de 1822 se eligió un Congreso Constituyente, pero un motín del regimiento de Celaya, en mayo de 1822, dio el poder a Iturbide, que el mes de julio siguiente se proclamó emperador con el nombre de Agustín I. Tras disolver la Cámara, creó un Junta instituyente en octubre, reprimió a los republicanos y cesó al general Antonio López de Santa Anna, gobernador de Veracruz, en noviembre. Un mes más tarde se produjo la insurrección de Guadalupe Victoria y Santa Anna, que lograron el apoyo de la mayoría del Ejército, lo que forzó a Iturbide a restablecer el Congreso y a abdicar el 19 de marzo de 1823. En abril fue abolido el Imperio y en mayo salió Iturbide del país rumbo a Europa. Tras una corta estancia en Liorna (Italia), se instaló en Londres y el 13 de febrero de 1824 envió una Exposición al Congreso mexicano, anunciando su intención de regresar al país. Declarado traidor por el Congreso en el mes de mayo, cuando desembarcó en Soto la Marina (Tamaulipas), el 18 de julio siguiente, fue hecho prisionero, y acabó fusilado en Padilla un día después.
LA REVOLUCIÓN MEXICANA
La revolución mexicana tuvo muchos caudillos, se garantizó el 20 de Noviembre, pero ya se había iniciado el día 17 en la casa de los hermanos Serdán, dentro de la revolución brillaron infinidad de planes, uno de los que más eco tuvo dentro del grueso de la población campesina fue la frase de Emiliano Zapata, TIERRA Y LIBERTAD , dicha frase se puede decir que fue el himno de muchos de los campesinos que tomaron parte en la lucha contra la dictadura, se puede localizar dentro del famoso PLAN DE AYALA, formulado por Emiliano Zapata, que en su punto cinco dice: "En virtud de que la inmensa mayoría de los pueblos y ciudadanos mexicanos, no son dueños ni de la tierra que pisan, y sin poder mejorar en nada su condición social, ni poder dedicarse a la industria o la ganadería por estar monopolizadas por unas cuantas manos las tierras, montes y aguas, por esa causa, se expropiarán previa indemnización de la tercera parte de esos monopolios, a los poderosos propietarios de ellas, a fín de que los pueblos y ciudadanos de México, obtengan ejidos, colonias, feudos legales para pueblos o campos de sembradíos o de labor, y se mejore en todo y para todo la falta de prosperidad para los mexicanos.
El lema completo de este plan fue "REFORMA, LIBERTAD, JUSTICIA Y LEY"
Dentro de la revolución hubo otros cientos de caudillos, pero no todos brillaron por que usaron métodos diferentes de lucha, solo hubo algo que hacia homogéneos, y fue la lucha contra una causa común.
257
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
La tiranía del gobierno, los tratos infrahumanos de que eran objeto, los campesinos, las inhumanas jornadas de trabajo, y las pésimas condiciones de trabajo de los obreros, de todos estos personajes que lucharon juntos para mejorar sus condiciones de existencia, y sus perspectivas de un futuro mejor. Destacaron algunos por sus ideas progresistas, otros por su tenacidad para combatir en el campo de batalla, de los principales podemos citar algunos que también dieron a la revolución sus planes, como Venustiano Carranza y su PLAN DE GUADALUPE, Francisco I. Madero y su PLAN DE SAN LUIS POTOSI, llamado así para distinguirlo de San Luis Misuri, Francisco Villa tenía en la lucha armada, los hermanos Carmen, Aguiles y Máximo Serdán, Felipe Ángeles, José Ma. Pino Suárez, los hermanos Flores Magón, Belisario Domínguez, Álvaro Obregón y muchos otros.
Debemos tener en cuenta que paso mucho tiempo para que se dieran las condiciones necesarias para que no fuera un fracaso, mucho tiempo de organización, muchísimas muertes por todas partes de la República Mexicana, donde también hubo muchos destierros de personas que se oponían al régimen de Porfirio Díaz.
Una vez que termino la lucha armada, se procedió a organizar políticamente el país, se cambió al Presidente, pero se continuo con el mismo gabinete político, lo que originó que empezara una Época de Anarquía Política en la que se cambiaba de personas dentro de la política cuando llevaban poco tiempo en el poder, ésta terminó con la llegada de Cárdenas a la Presidencia. DECENA TRÁGICA ANTECEDENTES: Francisco I. Madero candidato del Partido Antireleccionista en contra de Porfirio Díaz fue hecho prisionero en San Luis Potosí mientras se realizaban las elecciones. Díaz se reeligió y Madero escapó de la cárcel y se refugio en San Antonio, Texas donde dio a conocer el Plan de San Luis. En él declara nulas las elecciones desconocía al régimen de Díaz, exigía el sufragio efectivo y la no releción y, señalaba el 20 de Noviembre de 1910 para que el pueblo se levantara en armas contra el tirano. Al llamado Plan de San Luis, se pronunciaron hombres como Pascual Orozco, Pancho Villa, Emilizano Zapata etc. La insurrección se extendió poco a poco por todo el País. En Mayo de 1911 cayó Ciudad Juárez en poder de los maderistas. Debilitado el gobierno de Díaz entra en negociaciones y el 25 del mismo mes el dictador presentó su Renuncia. Al triunfo de la Revolución Madero deja intacto el ejercito porfirista, mientras a su alrededor crecía el descontento. Los Porfiristas reclamaban sus antiguos privilegios; los zapatistas exigían el reparto de tierras; la prensa lo atacaba a diario y las rebeliones de Félix Díaz y Bernardo Reyes, independientes entre sí, confluyeron en la llamada Decena Trágica para asestarle el golpe definitivo a Madero.
CRONOLOGÍA DE LOS HECHOS: Domingo 9 de Febrero de 1913.- los sublevados liberan a Bernardo Reyes y Félix Díaz. Madero se dirige a Cuernavaca en busca de Felipe Ángeles para que se defienda la Plaza. LUNES 10.- los diarios capitalinos no aparecen. Temor general, No hay transporte y las tiendas permanecen cerradas. Martes 11.- se bombardea la Ciudadela. Son aniquilados dos batallones.
258
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Miércoles 12.- Escapan los presos de la cárcel de Belén. La ciudad queda sin servicios. Jueves 13.- Se recrudece la lucha de la Ciudadela y sus alrededores. Se disparan mil cañonazos por minuto. Viernes 14.- Varios edificios públicos son dañados. Muchos civiles mueren por causas de "balas perdidas". Sábado 15.- Madero rechaza a los senadores que le piden su renuncia. La ciudad se llena de humo producido por los cadáveres incinerados. Domingo 16.- Se pacta un armisticio que es roto al poco tiempo. Mueren cerca de 300 civiles ajenos a la lucha. Lunes 17.- Continúan los enfrentamientos. Martes 18.- Se celebra el Pacto de la Embajada entre Félix Díaz y Huerta con la aprobación del embajador Norteamericano, Henry Lane Wilson, Madero y Pino Suárez son aprehendidos al Salir del Palacio Nacional. Miércoles 19.- Madero y Pino Suárez son obligados a renunciar. Huerta asume la presidencia. 3 días después son asesinados alevosamente. EL MÉXICO CONTEMPORÁNEO Lázaro Cárdenas llegó a la presidencia el 1° de diciembre de 1934. En su gobierno, se propuso cumplir algunas de las promesas de la Revolución. El problema de los campesinos fue el que más le preocupó y durante su régimen se expropiaron grandes latifundios para repartir esa tierra entre quienes la trabajaban; se fundaron ejidos y se dedicó más dinero para atender al campo. Cárdenas se preocupó por multiplicar las escuelas, sobre todo rurales, y por impulsar la enseñanza técnica. Amplió la red de carreteras y dio facilidades para que creciera la industria nacional. Los años treinta fueron difíciles. En 1929 se inició un empobrecimiento de la economía en todo el mundo. Europa vivía en crisis. La tensión entre los diversos países crecían día a día. En España, la rebelión de una parte del ejército contra el gobierno de la república provocó la Guerra Civil (1936-1939) y obligó a miles de españoles a salir de su país. Muchos de ellos fueron recibidos por México y enriquecieron la vida del país, sobre todo en el terreno de la educación, la ciencia y las artes. Para mejorar la economía de México, el gobierno impulsó la formación de industrias. Se abrió un banco para prestar dinero a los campesinos y se fundó el Instituto Politécnico Nacional para mejorar la enseñanza técnica. Los años treinta fueron de intensa actividad cultural. En ese tiempo se crearon, entre otros organismos, el Fondo de Cultura Económica (una de las editoriales más importantes de Latinoamérica) y el Instituto Nacional de Antropología e Historia. Con la llegada de los refugiados españoles, se estableció La Casa de España en México, que después se convertiría en El Colegio de México. El Instituto Nacional de Bellas Artes y Literatura se fundaría en la década siguiente. Un grupo de poetas y ensayistas, llamados los Contemporáneos (Salvado Novo, Xavier Villaurrutia, Carlos Pellicer y José Gorostiza, entre otros), hicieron participar a la literatura mexicana de las formas literarias más modernas, mientras otros autores escribían en un estilo realista sobre la vida y los problemas de los obreros y los indígenas. En ese tiempo, además, aparecieron muchas e importantes obras sobre la Revolución y sus consecuencias, como El águila y la serpiente (1928) y La sombra del caudillo (1929), de Martín Luis Guzmán, y Ulises criollo (1936), de José Vasconcelos.
Población
259
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Por mucho tiempo los gobiernos de México se preocuparon porque el país no estaba suficientemente poblado. faltaba gente. Las familias tenían muchos hijos, pero muchos niños morían y la gente vivía menos años que ahora. Según los datos de los censos de población, en 1900 vivían en México poco más de trece millones y medio de personas y en 1910, al comenzar la Revolución, poco más de quince millones. Durante los diez años de guerra la población disminuyó debido a los muertos en cambate y por las epidemias, a que muchos mexicanos salieron del país y a que hubo menos nacimientos. En 1921 había en el país algo más de catorce millones de habitantes: menos de los que viven ahora en la Ciudad de México. En esos años y hasta 1947 el gobierno daba premios a las familias numerosas, porque la política de población era que hacía falta gente en el país. Pronto, sin embargo, empezó a verse que México empezaba a tener demasiados habitantes. En 1960, cuando comenzaron las primeras acciones de planificación familiar, México tenía treinta y cinco millones de habitantes. Actualmente tiene alrededor de 90 millones. En la actualidad las familias tienen menos hijos que antes; en 1970, en promedio, cada madre tenía siete hijos; en 1990 tenía tres. Pero ahora, gracias a los adelantos de a la medicina y a que hay más gente con atención médica, muchos menos niños mueren y los mexicanos, en general, vivimos más tiempo. En 1930, el promedio de vida de los mexicanos era de 37 años; en 1960, de 58; actualmente es de 70 años. En el siglo XX, a medida que un país progresa hay más gente que vive en ciudades y menos que vive en el campo. En 1930, 17 de cada cien mexicanos vivían en poblaciones de más de quince mil habitantes. En 1960, eran 36. En 1990, eran 57. Es decir, en la actualidad más de la mitad de la población del país vive en ciudades. En México conviven muchos pueblos indígenas, de cultura y lenguas diversas. De acuerdo con el Instituto Nacional Indigenista (INI), en 1990 había seis millones y medio de personas que hablan lenguas indígenas, correspondientes a 48 etnias claramente definidas. Más otros dos millones y medio de mexicanos que ya no hablan lenguas indígenas, pero que conservan la cultura de los más antiguos pobladores de nuestra tierra y que también se consideran indígenas. En total, serían unos nueve millones de mexicanos que pertenecen a etnias indígenas. Según las asociaciones de comunidades indígenas, ese número sería dieciséis millones. La dificultad para precisarlo se debe a que en muchas regiones esta población vive dispersa en rancherías. Y también a que el criterio de cultura indígena, sin tomar en cuenta la lengua, con frecuencia no es muy claro. En orden de importancia, según el número de personas que las integran, de acuerdo con la información de INI, las etnias que en 1990 contaba con más de cien mil hablantes son las siguientes: nahuas (1,200.000), mayas (720,000) zapotecas (410,000, mixtecas (390,000), otomíes (280,000), tzeltales 260,000) tzotziles (230,000), totonacos (210,000), mazatecos (170,000), choles (130,000), mazahuas (130,000), huastecos (120,000), chinantecos (110,000), purépechas (100,000).
En general, las condiciones de vida de los indígenas mexicanos son malas. Necesidades trabajo, alimentación, servicios de salud, escuelas, seguridad y respeto. Es mucho lo que se ha trabajado para integrar la población indígena al desarrollo de México y para fomentar su mejoría, pero es mucho más lo que aún hace falta.
La nacionalización del petróleo En el siglo XX el petróleo ha sido un recurso esencial para los transportes, las industrias y la producción de electricidad. Del petróleo se obtiene combustibles, plásticos y muchos otros productos. En el subsuelo de México existen enormes yacimientos de petróleo, y las primeras
260
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
compañías que los explotaron fueron estadounidenses e ingleses, que trabajaban en beneficio propio y de sus países. A partir de Madero, los gobiernos mexicanos trataron en vano de limitar el poder de estas compañías extranjeras. Después de la primera Guerra Mundial (1914-1918), la demanda de petróleo aumentó de manera importante, pues fue evidente que los países debían tener suficientes, sus industrias y su seguridad nacional. Muchas naciones hicieron lo necesario para controlar su petróleo. En México, las diferencias entre las compañías extranjeras y el gobierno fueron creciendo hasta llegar a un conflicto. Las compañías extranjeras se esforzaban por no pagar los impuestos que señalaba la ley, y no querían mejorar los salarios de sus trabajadores mexicanos, que eran muy inferiores a los de otros paises Manifestación en apoyo a la nacionalización de la industria petrolera, 1938. Archivo Casasola. los trabajadores extranjeros. Los obreros mexicanos finalmente se fueron a huelga; tras estudiar el asunto, la Suprema Corte de Justicia decidió que el aumento que pedían era justo y ordenó que se les concediera. Sin embargo, las compañías petroleras no obedecieron a la Corte, y entonces el presidente Cárdenas decidió expropiarlas. Lo anunció el 18 de marzo de 1938, y las compañías extrajeras tuvieron que venderle a México su maquinaría, sus pozos, sus refinerías. Las diversas compañías se fundieron en una sola, dirigida por el gobierno, que se llama Petróleos Mexicanos (Pemex). El gobierno estadounidense, interesado en mantener buenas relaciones con México, pues había el peligro de que estallara una gran guerra en Europa, aceptó la decisión del presidente Cárdenas. Sin embargo, México tuvo que resistir que por un tiempo ningún país quisiera comprarle petróleo ni plata. Y las compañías petroleras exigieron que el pago por la expropiación fuera de inmediato.
La decisión del presidente Cárdenas se vio respaldada por los mexicanos, que cooperaron con entusiasmo para reunir el dinero que hacía falta para pagar la expropiación. Los trabajadores petroleros realizaron auténticas hazañas para no suspender la producción y para sustituir de un día para otro a los técnicos extranjeros, que salieron del país. En la actualidad, muchos países consideran que los recursos naturales deben ser explotados bajo el control de la propia nación, para que los beneficios sean primordialmente para sus habitantes. En 1938, el Partido Nacional Revolucionario (PRN) se convirtió en el Partido de la Revolución Mexicana (PRM), que se organizó en cuatro sectores: el obrero, el campesino, el popular y el militar. El año siguiente, grupos opositores al presidente Lázaro Cárdenas y al PRM fundaron el Partido de Acción Nacional (PAN). En esa misma década se organizó el Partido Popular Socialista (PPS). Ya en la década de los cincuenta se fundó el Partido Auténtico de la Revolución Mexicana (PARM). El Partido Comunista (PC), que existía desde 1919, logró que se reconociera su carácter legal. En 1940, el candidato del PRM, Manuel Ávila Camacho, triunfó en unas reñidas elecciones sobre el general Juan Adreu Almanzán.
La segunda Guerra Mundial
Mientras tanto, la crisis europeas culminó en la segunda Guerra Mundial. En 1939, Alemania invadió Polonia y el año siguiente Francia. En 1941, Italia y Japón se unieron a Alemania (los tres países formaban el Eje).
261
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Alemania atacó a la Unión Soviética, y los japoneses bombardearon la base estadunidense de Pearl Harbor, con lo cual los Estados Unidos entraron a la segunda Guerra Mundial del lado de los Aliados (Inglaterra, Francia países, excepto los del Eje).
En 1942, tras el hundimiento de tres barcos mexicanos por submarinos alemanes, México declaró la guerra a los países del Eje y envió a la lucha el Escuadrón 201, formado por aciones militares. El conflicto terminaría en 1945, con la derrota de Alemanias y el lanzamiento por los Estados Unidos de bombas atómicas sobre las ciudades japonesas de Hiroshima y Nagasaki.
La mayor parte de los años de la segunda Guerra Mundial la vivió México bajo la presidencia de Manuel Ávila Camacho (1940-1946) Al iniciarse este conflicto, muchos artículos manufacturados comenzaron a escasear en México, porque los países industrializados se hallaban en guerra y toda su producción industrial estaba dirigida a satisfacer las necesidades militares. La demanda de artículos para el consumo de los mexicanos impulsó la industrialización de México.
Durante la guerra, los Estados Unidos necesitaron más obreros, pues muchos de sus trabajadores se convirtieron en soldados. México proporcionó mano de obra y materias primas a la economía estadounidense. Con esto, el crecimiento económico del país se vio favorecido. Cuando la guerra termino, México había empezado a dejar de ser un país campesino para convertirse en un país urbano e industrial.
En los años de la guerra hubo una campaña de alfabetización muy intensa. Desde entonces, la escuela primaria pública, gratuita y obligatoria no ha dejado de crecer.
En 1940 había dos millones de alumnos; hoy en día son catorce. También durante la guerra se creo el Instituto Mexicano del Seguro Social (IMSS), que ha permitido que una gran parte de la población cuenta con mejores servicios médicos. Al mejorar las condiciones de salud, la población ha crecido sin cesar. En 1940 había veinte millones de mexicanos; en la actualidad somos más de ochenta.
Bajo la presidencia de Miguel Alemán (1946-1952), México vio crecer su industria rápidamente. Muchas ciudades se expandieron a un ritmo acelerado. Se construyeron carreteras y aeropuertos; se modernizó la agricultura y el turismo comenzó a ser una actividad económica importante.
En 1946, el PRM se transformó en el Partido Revolucionario Institucional (PRI), que conservó la organización por sectores: obrero, campesino y popular. En esos años, los partidos de oposición continuaron consolidándose.
La expropiación petrolera
Jesús Silva Herzog (1892-1985) El general Cárdenas todavía estuvo haciendo esfuerzos durante los primeros días de marzo, en plan amistoso, para convencer a las compañías de que acataran la sentencia de la Suprema Corte. Hubo una junta de abogados de las compañías de las compañías con el presidente de la república.
262
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Algunos de los representantes le preguntó al general Cárdenas: "Y, ¿quién nos garantiza que el aumento será solamente de veintiséis millones?" El general Cárdenas contestó: "Yo lo garantizo". "¿Usted?" "Sí, lo garantiza el presidente de la república." El que preguntó no pudo contener una leve sonrisa. El presidente Cárdenas se puso de pie y les dijo: "Señores, hemos terminado".
Es absolutamente falso que desde un principio el gobierno hubiera tenido la idea de expropiar a las compañías petroleras.
El gobierno se daba cuenta de la gravedad de tal paso. Pero, ¿qué iba a hacer el gobierno de México frente a la rebeldía de las empresas? ¿Ante la actitud de desafío a la más alta autoridad judicial de la república? ¿Qué se hubiera hecho en cualquier otro país?
Se anunció la expropiación el 18 de marzo por medio de todas las estaciones de radio de la república. El país respondió. La expropiación se llevó a cabo un viernes, y rápidamente se fue advirtiendo el apoyo de la opinión pública.
Las compañías continuaron trabajando en contra del país. Sus agentes en Tampico hicieron correr la voz de que no había dinero para hacer el próximo pago a los trabajadores. Sin embargo, el día de pago a las siete de la noche llegó un avión de México con varios sacos de billetes. El pago se había retardado varias horas. Se improvisaron pagadores. Algunos que jamás se había ocupado de esas tareas, se ofrecieron a ayudar.
Se pagó al último individuo como a las dos de la mañana, y a pesar de cierto desorden y de tanto pagador improvisado, no faltó un solo centavo. El miércoles 23 de marzo hubo en la ciudad de México una manifestación de respaldo al gobierno por la expropiación de las empresas petroleras, de más de cien mil personas.
Días más tarde, el 12 de abril, hubo una manifestación de mujeres frente al Palacio de las Bellas Artes. Millares de mujeres de todas las clases sociales fueron a entregar su cooperación para pagar la deuda petrolera.
Algunas entregaron joyas valiosas, y otras objetos de valor escaso. Hubo una viejecita de la clase humilde que llevó una gallina, la cual seguramente representaba una buena parte de su exiguo patrimonio. Actos ingenuos y conmovedores, pero dan idea de lo que en los momentos difíciles somos capaces de realizar los mexicanos.
Cambio de vida
Al terminar la década de los cuarenta, las ciudades eran aún pequeñas; contaban con unos cuantos edificios altos; había muy pocos automóviles y sólo los muy ricos los podían comprar.
Los demás se transportaban en camiones o en tranvías. Si se trataba de viajes largos, se usaba el ferrocarril y, a partir de 1950, líneas de autobuses.
263
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Era raro que la gente viajara en avión y sólo lo hacía para asuntos muy importantes. Los aviones no eran tan rápidos como ahora. En la mayor parte de los pueblos faltaban la luz, el teléfono tenía radio. En 1950 se iniciaron las transmisiones de televisión, en la Ciudad de México.
El crecimiento de la industria empezó a cambiar la vida del país. La gente empezó a mudarse de los pueblos a las ciudades, que crecieron porque en ellas se concentraron las fábricas y los obreros; las carreteras, caminos, camiones y automóviles se multiplicaron. Con todo ello, se transformaron las costumbres.
En el campo también hubo cambios. Se construyeron grandes presas y canales de riego; se extendió el uso de tractores, trilladoras y otras máquinas agrícolas. En uno y otro lado se edificaron miles de escuelas, hospitales y centros de salud.
Las campañas para mejorar la alimentación y terminar con las epidemias dieron origen a un gran aumento de población, al disminuir la mortalidad Infantil.
Crecimiento La industrialización produjo grandes cambios en la economía mexicana. También el mundo interdependiente; es decir, cada día fue siendo más importante para cualquier país lo que sucediera en los demás. Con estos cambios, hubo alzas de precios en muchos productos.
Para reducir el alza de precios y de salarios, el gobierno comenzó a gastar menos y a frenar el aumento de los sueldos a los trabajadores. Con esto los costos se estabilizaron, las finanzas del gobierno mejoraron y la economía comenzó a crecer con muy poca inflación; es decir, sin que se hiciera circular más dinero y los precios estuvieran aumentando continuamente. Por casi veinte años el gobierno de México sostuvo con buenos resultados este plan económico, que se llamó desarrollo estabilizador.
Vida deportiva Después de la Revolución Mexicana, los deportes empezaron a formar parte de la vida diaria de casi todos los mexicanos. En las escuelas se comenzó a dar cada vez más importancia a la educación física y, como en el resto del mundo, los deportes pasaron a ser no sólo una actividad útil para el desarrollo del cuerpo y para fomentar el trabajo en equipo, sino también un espectáculo importante y un medio de acercamiento entre las distintas naciones.
México ha sido varias veces sede de las fiestas deportivas más importantes del mundo. De los Juegos Centroamericanos en 1926, 1954 y 1990. De los Juegos Panamericanos en 1955 y 1975. Del Campeonato Mundial de Futbol en 1970 y 1986. Y de las Olimpiadas en 1968. Los atletas mexicanos han obtenido más de doscientas medallas en los juegos Centroamericanos y Panamericanos, y más de cuarenta en las Olimpiadas. Las primeras medallas olímpicas se consiguieron en 1932, en Los Ángeles, en Estados Unidos: una de plata en boxeo, por Francisco Cabañas, y otra también de plata en tiro, por Gustavo Huet. El atleta mexicano que más medallas olímpicas ha ganado es el clavadista Joaquín Capilla, que conquistó cuatro medallas en tres Olimpiadas: 1948,1952 y 1956.
264
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El desarrollo estabilizador se puso en práctica durante la presidencia de Adolfo Ruiz Cortines (1952-1958), Su sucesor fue Adolfo López Mateos (1958-1964), cuyo gobierno tuvo que hacer frente a dos conflictos laborales graves: el movimiento de los maestros y la huelga de los ferrocarrileros en 1959. López Mateos nacionalizó la industria eléctrica, creó la Comisión Nacional para los Libros de Texto Gratuitos y completó la nacionalización de los ferrocarriles, que había comenzado desde tiempos de Porfirio Díaz. Al concluir este periodo presidencial, en 1964, el país llevaba más de treinta años de estabilidad política y crecimiento económico. No había faltado problemas: entre otros, elecciones discutidas, corrupción, inflación, desigualdad en la repartición de la riqueza, falta de escuelas, injusticia, necesidad de mayor apoyo al campo. Pero la estabilidad y el crecimiento de México eran ejemplares en América Latina. México se estaba transformando en una sociedad urbana; es decir, cada vez más gente vivía en las ciudades, que crecían con un ritmo vertiginoso. Había trabajo y educación. La esperanza de vida de los mexicanos había aumentado. Seguía habiendo pobreza, pero una parte muy importante de los mexicanos había progresado. En nuestro país todavía existen muchos problemas graves, pero sin duda la vida ha mejorado. El México de hoy, el país en que vivimos, es el resultado de las luchas y los esfuerzos de nuestros antepasados. La columna de la Independencia, en la Ciudad de México, está rematada por la efigie de la Victoria ("El Ángel"). El México Contemporáneo 1926. Siendo Plutarco Elías Calles presidente, se inició la rebelión cristera, cuando el arzobispo de México declaró que el clero no le reconocía y combatiría los artículos 30, 50, 27 y 130 de la Constitución; fue consignado al procurador de justicia. 1929. Formación del primer partido político oficial llamado Partido Nacional Revolucionario (actualmente Partido Revolucionario Institucional, PRI).
1938. Estando en la presidencia el general Lázaro Cárdenas decretó la expropiación de las empresas petroleras y constituyó la Compañía Exportadora del Petróleo Nacional. Los Ferrocarriles Nacionales son entregados al Sindicato del Ferrocarrilero (un año después de la nacionalización). 1968. Estalla la violencia del movimiento estudiantil en la Plaza de las Tres Culturas de la Ciudad de México con un número no preciso de muertos. 1982. El presidente José López Portillo nacionaliza la Banca. 1986. Fuerte descenso de los precios del petróleo. Ingreso al GATT (Acuerdo General sobre Tarifas Arancelarias).
Modelo Neoliberal:(1982-2000) Gobiernos de Miguel de la Madrid Hurtado, Carlos Salinas de Gortari y Ernesto Zedillo Ponce de Leon. a) Perdida de la autosuficiencia alimentaria b) El desempleo c) Dependencia tecnológica Rompimiento estado y empresarios 265
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
a) Nacionalización de la banca Pactos estabilizadores
a) Propuesta y crisis “Cambiar Todo Para Quedar Igual” Ilegitimidad de las instituciones políticas Radiografía de la pobreza y las políticas de solidaridad y bienestar social Reformas Contitucionales 1994 al 2000 a) EZLN b) Magnicidios c) EPR d) La cuarta declaración de la selva lacandona e) Narcotráfico
GOBIERNOS DE MIGUEL DE LA MADRID HURTADO, CARLOS SALINAS DE GORTARI Y ERNESTO ZEDILLO PONCE DE LEON.
De la Madrid recibió al país en una grave situación económica, empeorada por la deuda externa y las circunstancias políticas y económicas a nivel mundial. Con una política austera enfrentó problemas económicos muy fuertes, como el descenso del precio del petróleo a nivel mundial.
266
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
En el ámbito internacional, cooperó con un grupo diplomático encargado de procurar la paz en Centroamérica. Un viaje por varios países europeos trajo como consecuencia un intercambio más intenso a nivel comercial, político y cultural. A finales de su gobierno una muy fuerte devaluación afectó nuevamente la ya quebrantada economía mexicana. Dejó su cargo a Carlos Salinas de Gortari, y actualmente funge como director del Fondo de Cultura Económica. Asumió la presidencia el 1° de diciembre de 1988, en un periodo extremadamente complicado para México, pues la crisis continuaba afectando la economía nacional. A través de lo que los especialistas llamaron "Terrorismo fiscal", Salinas obtuvo más ingresos; y se deshizo de muchas empresas propiedad del gobierno que funcionaban como pérdidas para reducir los gastos. Renegoció la deuda externa reduciéndola en un 26% e incluso, en 1991, se reportó el primer superávit en muchos años. Durante su sexenio, la red de carreteras se reestructuró y se puso en marcha el Programa Nacional de Solidaridad, que se encargó de dotar de agua, electricidad, o banquetas a pueblos lejanos de la ciudad. A nivel internacional se firmó el Tratado de Libre Comercio con Estados Unidos y Canadá y se lograron muchos intercambios comerciales y culturales con diversos países. En enero de 1994 se inició en Chiapas un levantamiento armado indígena que provocó una seria crítica internacional contra su gobierno. A partir de ello, sobrevinieron varios acontecimientos que desembocaron en la estrepitosa caída del peso al final de su mandato presidencial. De este modo quedó empañado su buen desempeño presidencial, el cual había hecho declarar a la prensa, tanto nacional como internacional que era el mejor gobernante de México en los últimos años. Entregó el poder a Ernesto Zedillo y se retiró al extranjero. Ernesto Zedillo siendo Secretario de Educación Pública en 1988, renuncia a su cargo para incorporarse a la campaña presidencial de Luis Donaldo Colosio. 267
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El candidato fue asesinado y Ernesto Zedillo fue postulado por el PRI para contender en la elección presidencial. Resulta electo por un amplio margen para ocupar la Presidencia de 1994 al 2000. Su administración se caracteriza por el gran impulso que se le ha dado a la democracia con la reforma a las leyes electorales. En la actualidad, la oposición gobierna diversos estados, como el Distrito Federal, y también tiene una participación significativa tanto en la Cámara de Diputados como en la de Senadores. Al inicio de su gestión el país se enfrentó a una de las peores crisis económicas de su historia, pero con su programa de gobierno logró una estabilidad importante, que ninguno de sus últimos antecesores habían podido conseguir. Su gobierno le ha dado un gran impulso a la exportación y al comercio, por que se han firmado diversos tratados internacionales. En estos años se han estrechado los lazos y la relación de México con los países latinoamericanos, europeos, y de todo el mundo en general. En el aspecto social, el gobierno implementó el programa "Progresa" para ayudar a familias en pobreza extrema. También durante su gobierno, el país se ha visto afectado por numerosas catástrofes naturales, como sismos, sequías e inundaciones, en todos los casos el Presidente Zedillo giró instrucciones y supervisó personalmente la ayuda a los damnificados.
MODELO NEOLIBERAL Los Planes Nacionales de Desarrollo tienen sus antecedentes en la programación sectorial surgida en los años setenta como un intento de racionalizar las acciones del sector público, surgieron programas en educación, agricultura, industria, etc. Posteriormente, a principios de los años ochenta, en el régimen de López Portillo se elabora el Plan Global de Desarrollo. Con estos precedentes en el sexenio de De la Madrid y en el de Salinas de Gortari se elaboran los Planes Nacionales de Desarrollo. Sin embargo, hay que considerar que dichos planes no eran un mero ejercicio técnico, sino que subyace en los dos últimos la concepción política neoliberal como resultado de que representantes de esa corriente tomaron el poder en 1982. Sin embargo, existe un común denominador en todos ellos, establecen siempre objetivos de beneficio social y mejoramiento de los niveles de vida de la población, 268
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
también fijan metas de alto crecimiento del producto interno bruto, sin embargo como es evidente por el estado actual de la mayor parte de la población muy poco o nada se ha cumplido, quizá de ahí se derive que en el discurso gubernamental siempre se repita el que "aun falta mucho por hacer". Hay que considerar también que las presentaciones de los Planes son fastuosas, pero debido a los resultados obtenidos y a que al final de cada sexenio se acumula tal desprestigio a los presidentes en turno que ya no se acuerdan de realizar la evaluación de lo alcanzado, en relación a lo que se fijó como objetivos y metas a alcanzar. Muchas veces, incluso, se realizaron acciones trascendentes que no se consideraron en los Planes, tales como la venta masiva de empresas públicas, la reprivatización de los bancos, el ingreso al TLC, firmas de acuerdos internacionales que han comprometido la soberanía nacional, etc. Durante la etapa inicial de auge de la planeación en el aparato administrativo gubernamental se empezaron a formar cuerpos especializados, llegándose a establecer subsecretarías de planeación en casi todas las Secretarías de Estado e incluso la Secretaría de Programación y Presupuesto, que fue la entidad que tenía como responsabilidad la formulación y el seguimiento del Plan. Sin embargo con los recortes presupuestales desaparecieron estas dependencias especializadas, convirtiendo el ejercicio de planeación en un requisito a cumplir porque así lo señala la Constitución y la Ley de Planeación. Hay que considerar que aunque han existido buzones y foros para recoger aportes de la población sobre los diversos capítulos del Plan, en realidad no se conocen los mecanismos de consulta y el cómo las sugerencias se tomarán en cuenta.
REFORMAS CONSTITUCIONALES Las reformas constitucionales propuestas por los Acuerdos son modificaciones básicas, fundamentales para avanzar al Estado de Derecho, la convivencia democrática, la observancia de los derechos humanos, la erradicación de la impunidad y la institucionalización de una cultura de paz basada en la tolerancia mutua, el respeto recíproco, la concertación de intereses y la más amplia participación social a todos los niveles e instancias de poder. De su aprobación depende el reconocimiento de la unidad de la Nación guatemalteca, en tanto Nación multiétnica, pluricultural y multilingüe; la reorientación de la seguridad ciudadana, la aplicación de justicia y la redefinición del papel del ejército nacional.
269
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
La iniciativa de Ley de Reformas Constitucionales, expresión formal del mecanismo acordado por las partes, ha generado diversas reacciones que eran previsibles. Las más conservadoras y timoratas plantean la inconveniencia o disminución de los alcances. Otros sectores, en cambio, están dispuestos a impulsarlas y ven en este momento la posibilidad de abrir la discusión sobre otras propuestas, no necesariamente contempladas en los Acuerdos, y que responden a intereses particulares que atentan y están en contra de la unidad de la nación y del desarrollo del país.
1994 AL 2000 Entre los años cuarenta y el inicio de los ochenta México demostró una notable estabilidad política represiva. El Partido Revolucionario Institucional (PRI) gobierna ininterrumpidamente desde 1929 por medio del fraude electoral, la corrupción y la represión; ejecutadas bajo las banderas del "nacionalismo revolucionarista" y, a diferencia de otros países de América Latina que también conocieron el fenómeno de gobiernos represivos, México ha sido tolerado por la comunidad internacional. La prueba más reciente de ello es que en las negociaciones para el ingreso al TLC (Tratado de Libre Comercio), en el proceso de creación de una zona de libre comercio con Canadá y EEUU, la situación de los Derechos Humanos y políticos no fueron jamás considerados en las agendas de las negociaciones. La Unión Europea tampoco los ha puesto como condición para las relaciones económicas con México. Desde el dos de octubre de 1968, cuando fueron asesinados en la Plaza de las Tres Culturas cerca de trescientos estudiantes que a propósito de la publicidad internacional de los Juegos Olímpicos exigían la apertura democrática del sistema político, el régimen mexicano ha cultivado sistemáticamente una imagen de estabilidad política que contrastaba con sus vecinos del sur (Guatemala, El Salvador y Nicaragua). Dicha estrategia se apoya en una política internacional "progresista" y de estímulo a los movimientos de liberación nacional de los países subdesarrollados; que no excluía de su discurso una prudente dosis de antiimperialismo. Este ciclo ha sido cerrado con la rebelión el 1 de enero de 1994 del Ejercito Zapatista de Liberación Nacional en Chiapas y con el asesinato del candidato presidencial del PRI, Luis Donaldo Colosio, que se une a la historia de los magnicidios presidenciables mexicanos iniciada con al asesinato de Francisco Madero en 1913, de Venustiano Carranza en 1920 y Álvaro Obregón en 1928. Las transformaciones económicas y políticas del México moderno se han tornado dramáticas desde la crisis de la deuda externa en 1982 bajo el gobierno de López Portillo, que condujo a la posterior suspensión unilateral de los servicios de la deuda, a la inflación, a una dramática devaluación del peso y a la estatalización de 270
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
la banca en septiembre del mismo año. Las políticas de estabilización y de ajuste estructural aplicadas para superar la crisis y la introducción de las reformas neoliberales que se ejecutaron bajo la presidencia de Miguel de la Madrid (198288), crearon las condiciones iniciales para una reforma profunda de las funciones económicas del Estado y una transformación radical de las políticas económicas que se habían basado en el keynesianismo económico de corte populista autoritario. La profundización de la reestructuración neoliberal llevada a cabo por el presidente Carlos Salinas de Gortari consolidaron dichas reformas y por medio de la privatización de las empresas del Estado y la apertura irrestricta y regionalización de la economía mexicana (TLC), se sustituyó definitivamente el modelo económico basado en la Industrialización Sustitutiva de Importaciones (ISI). Las consecuencias políticas y sociales de más de una década de reformas explican en parte, la desarticulación global de la estructura social y del sistema político, que se había apoyado en mecanismos corporativos de relaciones entre Estado y sociedad civil y en un sistema político que indentificaba el Estado con el partido. La creación inicial de una arena política real se había manifestado por la izquierda en el cardenismo y por la derecha en la creación del Partido de Acción Nacional (PAN). La sustitución del Estado populista autoritario por el Estado neoliberal ha sido impulsada por la burocracia política del Estado y el partido en un intento por conservar el poder y regionalizar la internacionalización de la economía mexicana; manteniendo el poder de la clase política partido/estado. El paso de un Estado rentista/keynesiano a un Estado neoliberal por medio de la privatización de las empresas públicas pone en dificultades la naturaleza autoritaria corporativa de la tradición estatal mexicana que había sido apoyada por el clientelismo y que, en períodos de recesión económica, es difícil de alimentar. El hecho de que estas reformas fueran iniciadas "desde arriba", por la burocracia del estado y el partido, es lo que le ha permitido autorepresentarse como una fuerza democratizadora o de apertura política. Esta perspectiva es reforzada por la tradición teórica del liberalismo político que considera la modernización económica como la causa inevitable de la sustitución del autoritarismo corporativo, en la medida en que éste no está en condiciones de regular, en tanto proceso político, las transformaciones de la economía. La integración de México en el TLC y como consecuencia el proceso de regionalización e internacionalización de la economía, ha operado como un factor de consolidación de la reestructuración neoliberal. La integración con EEUU y Canadá, a su vez, representa una ruptura con la tradición latinoamericana de integración económica que se inició en la década de los sesenta. Ésta aspiraba a un modelo de industrialización autosustentada de corte nacionalista y en cierta medida antinorteamericano. Con un mercado de 360 millones de consumidores, el TLC se constituye en la esperanza futura de acceso de las restantes economías latinoamericanas y 271
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
transforma otras iniciativas integradoras como el Mercado Común del Sur (MERCOSUR) (Brasil, Argentina, Uruguay y Paraguay) en una sala de espera para un ingreso posterior. El análisis de estos problemas constituye el objeto central del presente artículo. En la primera parte ofrece un estudio retrospectivo sobre lo que han sido los intentos de integración económica y cómo ellos han sido sustituidos después de la crisis del keynesianismo internacional; en la segunda parte, presentamos una descripción de los procesos económicos y políticos que facilitaron la integración de México en el TLC; en la tercera, consideramos los efectos de las reformas neoliberales sobre el sistema político mexicano; en la cuarta, consideramos el proceso de internacionalización vía regionalización de la economía mexicana; y finalmente, presentamos una serie de conclusiones. Las experiencias de integración latinoamericana tienen ya casi medio siglo. Desde los inicios de los años sesenta se intentó un proceso de integración económica regional no muy exitosa por medio de la ALAC (1960) y posteriormente la ALADI. Ello representó el intento por resolver tres problemas: la creación en marzo de 1957 de la Comunidad Económica Europea (CEE) que se consideró una amenaza de cierre de los mercados europeos para los productos agrícolas latinoamericanos; la necesaria renovación y ampliación de los acuerdos económicos preferenciales establecidos entre los diversos países de América Latina, conservando los beneficios de la cláusula de nación mas favorecida consagrada por los acuerdos del GATT, como resultado de ello surgió la creación de una zona de libre comercio, apoyada por el articulo XXIV del GATT y en el inicio de la década de los años 60 era evidente el estancamiento y la crisis del modelo de desarrollo basado en la ISI. La ampliación de los mercados internos era considerada como una de las soluciones destinadas a resolver la crisis y facilitar la profundización de la industrialización. La ampliación de los mercados vía integración regional conduciría al desarrollo de una industrialización regionalizada en donde cada uno de los países se especializaría en determinadas ramas de la industria disminuyendo los costes de los bienes de capital. Ello facilitaría la rentabilidad del capital y dinamizaría el proceso de acumulación fortaleciendo también la rentabilidad del capitalismo de Estado (empresas estatales). El deterioro de estas experiencias de integración no sólo está vinculado a la crisis de los modelos de industrialización keynesiana y al derrumbe posterior del keynesianismo internacional, sino también a la introducción temprana de la reestructuración neoliberal por vía autoritaria (dictaduras de Chile, Argentina, Bolivia y Uruguay) que acentuaron los principios del libre cambio. Con ello pusieron en discusión la efectividad de la políticas regionales de inspiración keynesiana identificándolas con el proteccionismo. Sólo a mediados de los años ochenta, con la restauración de la democracia en Brasil y Argentina se reabrieron los debates sobre integración regional que dieron curso a la constitución de MERCOSUR. 272
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El primer antecedente de MERCOSUR es el Programa de Integración y Cooperación Económica entre Argentina y Brasil de julio de 1986. A mediados de 1990 ambos países tomaron la determinación de formalizar la creación de un Mercado Común para fines de 1994. En marzo de 1991 se incorporaron Paraguay y Uruguay dando origen al Tratado de Asunción que creó oficialmente MERCOSUR. En el Acta para la Integración Argentino Brasileña de julio de 1986 se estableció el Programa de Integración y Cooperación Económica entre ambas Repúblicas incluyéndose los siguientes principios: gradualidad en las diversas etapas de definición, negociación, ejecución y evaluación, con ello con se busca garantizar la apertura paulatina de ambas economías regulando los costos sociales y económicos de la integración; flexibilidad para ajustar los objetivos previstos a los efectos reales de la integración; y equilibrio para no inducir a una especialización de las economías en sectores específicos en desmedro de una integración internacional diversificada. El Tratado firmado el 26 de marzo de 1991 que establece el Mercado Común del Sur implica: la libre circulación de bienes, servicios y factores productivos entre los países por medio de la eliminación de los derechos aduaneros y restricciones no arancelarias a la circulación de mercaderías; el establecimiento de un arancel externo común y la adopción de una política comercial común en relación a terceros Estados o agrupaciones de Estados y la coordinación de posiciones en foros económicos y comerciales regionales e internacionales; coordinación de políticas macroeconómicas y sectoriales entre los Estados participantes: de comercio exterior, agrícola, industrial, fiscal, monetaria, cambiaria y de capitales, de servicios, aduanera, de transporte y comunicaciones y otras destinadas a favorecer la competencia de las economías; y, por último, armonización jurídica de las legislaciones de los países miembros a fin de fortalecer el proceso de integración. El lanzamiento del Programa de Integración entre Argentina y Brasil se hizo en un momento en el que ambos países se encontraban embarcados en luchas antiinflacionistas similares: Plan Austral y Plan Cruzado. Por otra parte, MERCOSUR tiene lugar antes de la formulación de la "Iniciativa de las Américas" y es en parte el producto de la democratización de Argentina y de Brasil (de los Presidentes Alfonsín y Sarney). En sus inicios representa, por lo menos desde la parte argentina, un intento de restauración de los modelos de integración de inspiración keynesiana que habían prevalecido en América Latina desde el inicio de los años sesenta. La formación de MERCOSUR responde en una medida importante a la estrategia internacional de formación de bloques: la búsqueda de una mayor capacidad de negociación frente a sus principales socios comerciales, los EEUU y la CE (Comunidad Europea). Es bajo los regímenes de Collor de Mello y de Menem cuando MERCOSUR adquiere un carácter neoliberal y, desde la perspectiva argentina, es considerado como un mecanismo de consolidación de las reformas 273
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
neoliberales de la economía argentina y antesala para el ingreso posterior al TLC vinculándose definitivamente con la Iniciativa de las Américas. Las relaciones de MERCOSUR con el TLC se han formalizado por medio de los acuerdos que se conocen como "cuatro más uno" del 19 de junio de 1991 (Argentina, Brasil, Paraguay, Uruguay y EEUU). Ellos condujeron a la creación de un Consejo Consultivo sobre Comercio e Inversión. Se indica que las negociaciones con EEUU serán hechas con MERCOSUR y no con cada país individualmente. Esto último constituirá el mecanismo principal de las futuras conversaciones referidas al ingreso al TLC. MERCOSUR reconoce que la Iniciativa de las Américas se diferencia significativamente de otras iniciativas previas de USA respecto de América Latina, como la Alianza para el Progreso: inspirada en la época de la Guerra Fría como visión geopolítica de la región y en el rechazo a la revolución cubana. Por primera vez en la historia de las relaciones de EEUU con América Latina no se trata de un programa de asistencia económica y financiera con el objeto de "cooperar al desarrollo". El consenso sobre el carácter neoliberal de la formación de bloques en América Latina fue previamente legitimado por lo que se ha llamado "las nuevas democracias neoliberales". Incluso la CEPAL (Comisión Económica para América Latina y el Caribe) ha formulado una política regional en un texto ya clásico "Desarrollo con equidad" (CEPAL, 1990). Dicho análisis se fundamenta en el concepto de "década perdida" para referirse a la magnitud del retroceso del desarrollo en la década de los años ochenta. El producto real por habitante de 1989 era equivalente al de 1976. América Latina enfrenta el inicio de la década de los años noventa con los efectos de la deuda externa y la inadecuación entre la estructura de la demanda internacional y la composición de sus exportaciones. A esto se agrega la obsolescencia de la planta de capital y de la infraestructura física, la incapacidad para asimilar los cambios tecnológicos internacionales, el deterioro de la capacidad financiera y de gestión de los Estados, la acentuación de la desigualdades sociales, el crecimiento gigantesco del desempleo o del subempleo, el mal aprovechamiento de los recursos naturales y la depredación ambiental. En el nivel de los sistemas políticos, se restablecieron las democracias en diversos países que habían sido sometidos a dictaduras destinadas a implementar por la vía autoritaria las reformas neoliberales; entre ellos se encuentran Chile, Argentina, Bolivia y Uruguay y se agregan Brasil y Paraguay. Pero ello fue acompañado en los años noventa por lo que la CEPAL llama "desideologización en el debate político económico". Desde el inicio de los años ochenta México se encuentra abocado a la introducción del modelo de libre mercado y a la implementación de las reformas neoliberales dominantes en el sistema mundial. Sus últimos dos Gobiernos han eliminado las barreras a las inversiones extranjeras y al comercio, han reducido la participación del Estado en la economía e implementado una estrategia de promoción de 274
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
exportaciones que es considerada como la solución más adecuada a los cruciales problemas de la economía mexicana. Como consolidación necesaria de la reestructuración económica neoliberal, México decidió acceder al Tratado de Libre Comercio junto a Canadá y USA (TLC). La nuevas políticas y los programas de reestructuración neoliberal han tenido efectos considerables en el sistema político aún cuando ello no proviene directamente de una demanda democratizadora explícita del bloque regional neoliberal (TLC). Las partes más sensibles de transformación silenciosa del sistema político tienen que ver con el carácter corporativista de funcionamiento del Estado y la influencia de los sectores dominantes del PRI. Ello deriva de la necesaria reorganización de las alianzas políticas destinada a favorecer la vinculación de las élites empresariales con la influyente posición de las Empresas Transnacionales (regionales) y Washington. El retorismo nacionalista que formó parte indispensable de los discursos oficiales mexicanos (Ros, Stanley R., 1966; Sigmund, Paul E., 1970) ha desaparecido junto a toda referencia a la idea de un proyecto "nacional" de desarrollo. Éstos han sido reemplazados por conceptos como integración económica, productividad, bajos costes, disciplina laboral, diversificación de exportaciones, privatizaciones, libre comercio, etc. Al igual que en otras experiencias neoliberales de América Latina, los no beneficiarios de las reformas y en particular los desempleados resultantes del proceso de privatización de la economía son temporalmente compensados desde 1989 con el Programa Nacional de Solidaridad (PRONASOL). La financiación de dicho programa proviene de la venta de las empresas estatales y paraestatales como TELMEX y otras 1.000 empresas privatizadas o en vías de privatización. La creación de PRONASOL se presenta como una nueva forma de lucha contra la pobreza, aún cuando su creación fue la respuesta a las manifestaciones de descontento popular con el PRI en las elecciones nacionales de 1988 y la movilización política iniciada por el nacional populismo representado por la candidatura de Cárdenas. Una respuesta más estructural del presidente Salinas de Gortari se ha expresado en su programa del capitalismo social y con ello la fracción neoliberal del PRI puede conservar sus tendencias populistas. Las mayores críticas respecto a la modernización económica y de su participación en el bloque regional del TLC provienen de la izquierda y se concentran en la enorme asimetría/desequilibrio de la economía mexicana respecto de Canadá y EEUU y al carácter autoritario de las estructuras políticas (Grinspun, Ricardo & Cameron, Maxwell A., 1993). Los programas de modernización política implementados por el régimen de Salinas de Gortari son también criticados por la izquierda y la derecha liberal (Kaufman Purcell, Susan, 1988) y se concentran en el fraude político y en el monopolio tanto del PRI como del Estado respecto a los recursos financieros y a la propaganda ideológica destinados a manipular todo intento de democratización (Grayson, George W., 1988). El objetivo central del Gobierno estaría constituido por el intento de acceder a una nueva forma de control político que facilite la existencia de una democracia limitada. La necesidad 275
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
de cambios en el sistema político no sólo provienen de las consecuencias políticas de las elecciones de 1988, sino también de la sustitución del modelo keynesiano de industrialización protegida por el modelo neoliberal de promoción de exportaciones y que implica además cambios dramáticos de la estructura social, derivados también de los cambios en la configuración político- espacial del sistema mundial, de la globalización de la economía mundial, de los patrones internacionales de producción, de comunicación y de inversiones. La reestructuración económica y las políticas de liberalización han agudizado los desequilibrios geográficos de la distribución de la riqueza entre los Estados en detrimento del sur, que se caracteriza por una pobreza estructural. Ésta se concentra en cuatro Estados, Oaxaca, Chiapas, Guerrero e Hidalgo, con más de dos tercios de su población en la línea de la extrema pobreza. La estrategia neoliberal de exportaciones intensifica numerosos problemas sociales que han sido tradicionales en la sociedad mexicana y que se expresan en la disminución del PIB desde un 37,5% en 1981 al 26,2% en 1987. En 1987 el 10% de la familias mexicanas más ricas controlaban el 37% del total de los ingresos en oposición al 80% que compartía sólo el 46% y, sobre una población total de 90 millones, 43 millones están afectados de desnutrición (Alarcón, Diana & Mckinley, Terry, 1992:78). Estas desigualdades no sólo se deriva de la estructura de las clases sociales sino también tienen carácter étnico, sexual y geográfico, y amenazan con restituir las condiciones existentes en la época del porfiriato (1876- 1910). La irritante distribución de los privilegios favorece naturalmente a los inversores extranjeros (especialmente de EEUU), banqueros, especuladores, industriales y agroexportadores. Esta distancia social se reproduce también en la relación entre la elite política y los sectores populares. La tendencia socialista, populista y nacionalista que emergió de la Revolución Mexicana constituyeron una reacción contra la alianza política de comerciantes, barones industriales regionales, aristocracia agraria y financieros internacionales en un período de crecimiento económico (Meyer, Michael C. & Sherman, William L., 1991). Dicha situación, con excepción de la regionalización (TLC) de la economía mexicana es muy similar tanto a las alianzas políticas que hoy dominan México como a los niveles de pobreza a que son sometidos los sectores populares. El ingreso reciente en el TLC representa la institucionalización de la "integración silenciosa" de México al área de influencia norteamericana. Con ello se puso fin a la utilización del verbalismo revolucionarista utilizado por la élite política e intelectual en los momentos en que era necesario garantizar la estabilidad política del autoritarismo. La "familia revolucionaria mexicana", originada en el proceso de la revolución (1910- 20), culminó en la conformación de una élite política que diseña un Estado corporativista jerárquico y dinamizado por un "partido nacional populista" (PRI) que se apoya en un modelo de reproducción capitalista de economía mixta y en la "tolerancia represiva" aplicada por el sistema político. La función del PRI ha sido la de otorgar estabilidad a un bloque político centrista y 276
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
contener la naturaleza contradictoria de los conflictos de clase (Teichman, Judith A., 1992:87). El partido no sólo incorpora las organizaciones del sector público (CNOP y militares), sino también las organizaciones laborales urbanas y campesinas tales como la CTM y la CNC. La incorporación del aparato militar al Estado y al partido es legitimada por la utilización del concepto de Seguridad Nacional. El Estado también utiliza mecanismos de control del sector privado de la economía incorpora por medio de la afiliación de las organizaciones empresariales (CONCAMIN, CONCANACO, CANACINTRA). La relación simbiótica entre el Estado y el partido fue articulada por la existencia de un "proyecto nacional". La hegemonía tanto del partido como del Estado sobre el sector privado está garantizada por el monopolio sobre los subsidios, los contratos públicos, el otorgamiento de licencias y el control directo de las organizaciones laborales; constituyendo lo que se a llamado la "alianza para la ganancia" (Reynolds, Clark W., 1970), base del proyecto nacional. Los años sesenta constituyeron un período de consolidación y profundización de este proyecto (1958- 1968). El modus vivendi de la "alianza para la ganancia" logró sobrevivir las dificultades económicas nacionales y a los cambios de la economía mundial. La estabilidad y autonomía del Estado fue afianzada por la alianza estratégica del PRI con la heterogénea clase capitalista y su vinculación a la hegemonía norteamericana en el hemisferio occidental. El "proyecto nacional" era parte constitutiva de la Pax Americana, cuyo ingrediente más importante fue la industrialización sustitutiva de importaciones constituyendo la forma específica de integración al sistema mundial (Frobel, Folker; Heinrichs, Jurgen & Kreye, Otto; 1991:75). Por otra parte, la autonomía relativa de la clase obrera respecto del Estado mexicano fue limitada políticamente por tres vías: la utilización alternativa de las diferentes prioridades y estrategias de las organizaciones horizontales y verticales del estado y el PRI, que resultaron de la fricción entre técnicos y políticos y los discursos alternativos de la élite industrial del norte y de la burguesía neoliberal de Monterrey; la influencia y presión de la hegemonía norteamericana; y la acción más radical de organizaciones sociales de base que operan de manera independiente del sindicalismo oficialista y del partido/Estado. La alta capacidad centralizadora del Estado que se expresa en la concentración del poder público, le otorga tanto a la burocracia estatal como a la del PRI capacidad suficiente, junto a los grupos empresariales, para definir, sin contrapeso y en ausencia de una arena política pluralista, las políticas económicas nacionales. El PRI ha sido utilizado para resolver las deficiencias generadas por el Estado y los grupos económicos y ello regularmente ha tomado la forma del fraude electoral por medio del monopolio que ejerce sobre la arena política. Su función ha variado históricamente; en determinados momentos ha constituído la síntesis de intereses contradictorios que se negociaban interiormente en la medida que constituían una versión restringida de la arena política. En otros momentos ha transferido al Estado (y a la clase política del Estado) el rol crucial en la formulación del proyecto nacional de 277
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
desarrollo. El bloque político constituido por la "alianza para la ganancia" y que se expresó en la vinculación de la burguesía compradora con las corporaciones transnacionales constituyó el factor creciente de deterioro de las políticas nacionalpopulistas y de la vieja aristocracia política. Ello fue acompañado de un deterioro progresivo de la movilidad social, en particular de la clase media progresivamente empobrecida y del fortalecimiento de la discriminación étnica. Ello ha conducido a la pérdida de la capacidad estatal para mantener la cohesión política y la estabilidad del sistema político basado en la estructura del modelo partido/estado. El resultado de las reformas neoliberales introducidas por el presidente Miguel de la Madrid y profundizadas por Salinas de Gortari ha conducido después de la crisis de deuda externa y de la quiebra financiera del Estado a lo que se llama "el milagro mexicano", basado en la privatización general de las empresas públicas, en una concentración drástica de los ingresos y en la regionalización de la economía (TLC). La alianza tripartita establecida entre el heterogéneo grupo empresarial, la fracción neoliberal del PRI y la profundización de la integración política y económica con EEUU constituyen los componentes esenciales de la estabilidad del sistema. En el pasado, la transformación de la élite política en un régimen político burocrático autoritario no resolvió los conflictos de intereses entre la burocracia estatal/partidista encargada de formalizar las políticas económicas y los políticos de representación electiva e integrados como fracción corporativa del aparato del PRI pero en una situación dependiente del poder de los técnicos. Ello constituye el fraccionamiento más importante que ha sufrido la poderosa camarilla. La oposición a las políticas neoliberales y de desmantelamiento del Estado populistas iniciadas por Cuauhtémoc Cárdenas, que exige tanto la democratización del PRI como el abandono del coorporativismo estatal y del monopolio político del partido sobre toda actividad política de masas. El neocardenismo constituye una reformulación del populismo destinado a resistir el desmantelamiento de las funciones sociales del Estado y de las políticas neoliberales en general y se apoya en la necesidad de introducir un modelo de democracia pluralista (Tamayo, Jaime; 1993). El neocardenismo cuenta a su favor con la larga tradición nacionalista de la modernización y con la idea de una mexicanidad que rechaza a largo plazo todas las limitaciones antidemocráticas del sistema político. La crisis económica de 1973 y 1976 puso fin tanto a la esperanza del "milagro económico", dramáticamente expresado en 1982, como a la idea de una modernización industrial autosustentada y políticamente consensual (Pastor, Robert A. & Castañeda, Jorge; 1988). El abandono de la retórica nacionalista y populista ha privado al Estado y al sistema político de sus mecanismos tradicionales de legitimación ideológica frente a la sociedad civil. La retórica del presidente Echeverría constituyó el último momento de presión popular efectiva sobre la burocracia política del Estado y del PRI, que se manifestó en la crisis entre el partido y el sector empresarial en el período de 1981- 1983. 278
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
El Estado mexicano sólo en los momentos de crisis ha logrado grados considerables de autonomía respecto a los grupos empresariales y a los intereses económicos internacionales. El primer ejemplo de ello se produjo bajo la presidencia de Lázaro Cárdenas (1934- 40). Posteriormente, tres hechos certificaron la autonomía estatal: el apoyo del Estado mexicano a los grupos revolucionarios de América Central que significó el rechazo de la política de EEUU del período 1978- 84, la negativa a formar parte del GATT en 1980 y la nacionalización de la banca en 1982 Al igual que los restantes países de América Latina, la industrialización iniciada por el México post- revolucionario fue una respuesta reactivadora de la economía frente a las consecuencias de la Gran Depresión de 1929. A mediados de la década de los años setenta el proceso de ISI había consolidado el rol protagonista del Estado en la economía y fortificado un "contrato social" establecido entre la élite empresarial y los sectores del PRI partidarios de la expansión de un capitalismo de Estado destinado a conservar el statu quo aceptando la dominación de la Pax Americana. Desde el punto de vista teórico, la ISI estaba destinada a reducir las importaciones de bienes manufacturados de los países industrializados y ampliar la capacidad del mercado interno para el consumo de las nuevas industrias nacionales apoyadas por la intervención estatal. Es dicha estrategia la que se agota en la década de los años setenta, y que se expresa en el aumento significativo de las importaciones de bienes de capital destinados a satisfacer las demandas de la expansión de la industria petrolera, de los servicios y del sector financiero. En los años de la expansión de la ISI (1940- 70), México fue presentado como un ejemplo de desarrollo para los restantes países de América Latina y el tercer mundo. En los años de Milagro Económico Mexicano se verificó un crecimiento anual de 6 % y ello fue considerado como la era (1954- 70) del "crecimiento estable". En la década de los setenta el presidente Luis Echeverría implementó el último intento por revitalizar el estado populista negociando el "contrato social" entre la elite empresarial y el movimiento popular. Ello fue acompañado de la reforma política destinada a sustituir la exclusión política represiva por la negociación, lo que constituyó una apertura política destinada a ampliar la participación de los partidos y grupos sociales que habían sido tradicionalmente excluidos del sistema político tradicional (Tamayo, Jaime; 1993:258). En lo económico las reformas estaban destinadas a sustituir el modelo de estabilización por uno de "desarrollo compartido". El Estado debía fortalecer su función de intervención para regular las desigualdades económicas y sociales derivadas del desarrollo. En lo económico, la realización de dichas reformas exigía la integración "vertical" de la ISI estimulando la producción de bienes de capital e intentando resolver el déficit crónico de la balanza de pagos que era una de la características inherente a la ISI. En 1971 fue creado el Banco de México destinado a constituirse en el soporte de la industrias exportadoras (Alarcón, Diana & Mckinley, Terry; 1992). Ya 279
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
desde los años sesenta se habían tomado medidas económicas liberalizadoras tales como el Pacto Automotriz que tenía un carácter regional (General Motors, Ford y Chrysler) y el Programa de Industrialización Fronteriza que transformó a los Estados más próximos a EEUU en zonas de libre comercio destinadas a la exportación representadas preferentemente por la industrias maquiladoras (Philip, George, 1988; Bennett, Douglas & Sharpe, Kenneth; 1985). Ello era fortalecido por el rol central de estado en la definición del programa nacional de "desarrollo compartido". La apertura económica de los Estados fronterizos para el comercio y la inversión externa representó una ruptura y el inicio del fin de la adhesión de México a los principios del modelo de la ISI. La nueva liberalización significó la extensión al país del programa de las industrias maquiladoras que desde la década de los sesenta había estimulado el desarrollo de la manufactura de enclave para la exportación. Tres factores explican el desarrollo de la tradicional industria maquiladora. En 1962 los cambios en la regulación aduanera norteamericana facilitaron la libre importación de componentes y partes de productos destinados a un ensamblaje posterior. La revisión de las tarifas aduaneras permite los derechos de importación sólo sobre componentes de productos no terminados desplazando parte de la producción fuera de EEUU. Otro factor de mayor importancia para México fue el fin en 1964 del programa por parte norteamericana referido a los "braceros". El término de dicho programa provocó un aumento considerable del desempleo en las regiones fronterizas con EEUU y el crecimiento de la migración ilegal. La globalización de la producción y de las inversiones fue el último factor que estimuló el desarrollo de la nuevas industrias maquiladoras. En el inicio de los años cincuenta las industrias intensivas en utilización del trabajo comenzaron a ser transferidas de los países desarrollados hacia áreas en vías de industrialización (Altvater, Elmar; 1991:260). México en el contexto del desarrollo de la Nueva División Internacional del Trabajo (NDIT), habría llegado al "tiempo histórico justo de la producción" (Fatemi, Khosrow; 1990) y la maquiladorización de la economía habría sido funcional a este proceso. El status de las empresas japonesas y otras que no forman parte del TLC y que operan en el sector de las industrias maquiladoras formaron parte substancial de la dificultades para la firma del tratado. La élite financiera y los conglomerados industriales, junto a la política monetarista del Gobierno mexicano constituyen los elementos centrales de la maquiladorización. La concentración del poder económico de los conglomerados y la disminución gradual de la participación nacional son características inherentes a este proceso. México, al igual que otros países del tercer mundo, logró un progreso notable en la capacidad de producción de bienes intermedios y de capital que requieren de una alta capacidad tecnológica con acceso eficiente al mercado mundial. Al igual que en otros casos de América Latina el sector transnacionalizado de la economía es el de mayor dinamismo. A mediados de la década de los setenta el deterioro del crecimiento económico y de la pérdida de efectividad en los programas de 280
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
desarrollo se hizo evidente. Ello intentó ser compensado con la prioridad otorgada el sector exportador, el apoyo estatal para la financiación de programas de irrigación en la región norte del país, la reducción tributaria, el aumento del crédito y de la asistencia técnica. La deficiencias estructurales, tanto del sector industrial como agrícola, se vincularon a la crisis financiera y al deterioro de la balanza de pagos. El déficit fiscal aumentó significativamente, la sobrevaluación del peso en los años setenta, el crecimiento constante de la inflación, la fuga sistemática de capitales y la disminución de las importaciones crearon el inicio de una prolongada crisis. La soluciones que se aplicaron estaban basadas en medidas financieras de corto plazo, a partir de la utilización de los recursos del mercado financiero internacional que no fueron destinados a resolver los problemas estructurales de la economía. El descubrimiento de petróleo en la bahía de Campeche alimentó las falsas esperanzas sobre la efectividad de las medidas. El período entre 1978- 81 otorgó al sistema mexicano una nueva posibilidad basada en el crecimiento espectacular del precio del petróleo en el mercado mundial. Con la caída posterior del precio del petróleo y el aumento de las tasas de interés se inicia una profunda recesión del mercado mundial, que la economía de EEUU debe padecer bajo la reaganmania. Con ello, los años del milagro económico mexicano llegaron definitivamente a su fin y el presi- dente López Portillo, en los últimos meses de su mandato intenta controlar los efectos de la crisis por medio de la estatalización de la banca y la devaluación del peso. La necesidad de pagar los servicios de la deuda externa y del derrumbe de la industria petrolera otorgan al sector empresarial la posibilidad única para intentar eliminar el modelo estatal de desarrollo. Finalmente, en 1983 la deuda externa fue financiada con la creación de un fondo de crédito destinado a cubrir los riesgos del comercio exterior y a servir de intermediarios entre las empresas y los bancos (FICORCA), como compromiso entre la elite empresarial y la banca internacional (EEUU). El conjunto de estas medidas, presentadas políticamente con una enorme retórica populista, estaban destinadas a satisfacer las demandas de la élite empresarial (particularmente de Monterrey), que habían acumulado cerca del 40% de la deuda externa (Rojas, Raúl; 1991). A pesar de la reprivatización de la banca, ejecutada por el nuevo Gobierno de Miguel de la Madrid, la crisis de la "alianza para la ganancia" establecida entre el PRI y la élite empresarial no fue resuelta. En el interior del PRI se encontró una solución para resolver el problema de la deuda externa que consistió en la utilización de la inflación para cubrir a corto plazo la deuda pública y ahorrar en la cancelación de los salarios de los trabajadores de las empresas públicas y paraestatales. Por causa de los altos índices de inflación no eran posibles nuevas emisiones monetarias y en virtud de ello se aplicó la medida táctica de congelación salarial a niveles extraordinariamente bajos, acompañada de la disminución de los subsidios para la alimentación básica y de los servicios sociales. A fin de atraer "capitales frescos" el Gobierno desplazó préstamos al mercado de capitales otorgando al sector financiero certificados oficiales a un 281
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
interés mucho más bajo que el del mercado financiero internacional. Esta política reveló con claridad la existencia inicial de una nueva estrategia basada en una alianza tripartita entre el Estado, la élite empresarial nacional y las empresas extranjeras. Cuando se produce el colapso financiero México recurre al Banco Mundial, al Fondo Monetario Internacional y a Washington. La asistencia de emergencia recibida fue de corto plazo y la comunidad financiera internacional, organizada como un cártel, exige de México la reestructuración neoliberal de la economía. Dentro del PRI los mayores partidarios de la reestructuración constituyeron un nuevo grupo de tecnócratas educados en EEUU que proponen la introducción de drásticas reformas neoliberales y la necesidad de aplicar una "terapia de Shock" (Weintraub, Sidney; 1990). La aplicación de dichas medidas y la adecuación de la deuda externa mexicana a las exigencias del "Plan Baker" y posteriormente del "Plan Brady", situaron a México en una momento más favorable para las negociaciones que posteriormente culminaron en el Tratado de Libre Comercio con EEUU y Canadá, y con su vinculación al GATT en 1986. En la década de los ochenta México adopta una estrategia económica más estrechamente vinculada a los requerimientos de su integración en el mercado mundial y en particular, a su ingreso al bloque neoliberal del TLC, sobre la base de dos argumento clásicos: estabilización económica y crecimiento sobre la base del aprovechamiento de las ventajas comparativas. La estabilización económica está destinada a resolver los problemas financieros derivados del déficit fiscal, la presión inflacionista y el desequilibrio de la balanza de pagos derivado de la deuda externa y de la fuga de capitales. Ello se completó con la aplicación de las teorías económicas monetaristas que ponían énfasis en la idea de que tanto la crisis económica como el declive en el proceso de acumulación de capital derivan del desequilibrio entre la expansión del gasto público y la capacidad de ingresos del Estado. La estabilización de la economía debía ser lograda por medio de medidas de austeridad, de privatización, de la disminución de los gastos del sector público y de la liberalización del comercio y de las inversiones. El nuevo crecimiento económico resultaría de las inversiones privadas en el sector empresarial orientado a las exportaciones con ventajas comparativas suficientes para competir ventajosamente en el mercado internacional. Los bajos costes de la mano de obra y la proximidad geográfica con EEUU serían dos de las más relevantes ventajas y de especial importancia en la explotación de los recursos naturales mexicanos. Ello es compatible con la globalización de la economía mundial estimulada por el neoliberalismo internacional. La integración de México en la globalización de la economía internacional fue acelerada en los últimos años de la Guerra Fría por los efectos del aumento de la fuga de capitales, el estancamiento del precio internacional del petróleo y las drásticas devaluaciones del peso. Entre las consecuencias políticas internas de la incorporación de México a la globalización de la economía se encuentra la 282
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
profundización de las discrepancias políticas en el seno del PRI entre los técnicos y los políticos (Camp, Roderic A.; 1990) y en la oposición entre los antiestatalistas del conservador PAN y las ascendentes fuerzas modernizadoras de centroizquierda representadas por Cuauhtémoc Cárdenas, apoyadas por movimientos sociales de base decididos a implementar el "proyecto de modernización nacional". La turbulencia política mexicana de los años ochenta fue coronada por lo que en los círculos progresistas se llamó el "debate por la nación" que revindicó la justicia social, el nacionalismo y los valores populistas de la revolución mexicana que son negados por el proyecto de reformas neoliberales (Reynolds, Clark W. & Tello, Carlos; 1983). En este debate se reproduce y se reitera la vieja contradicción existente desde la década de los años treinta entre los ideales progresistas de Lázaro Cárdenas y el conservadurismo de Miguel Alemán. A nivel internacional Washington presiona a favor del triunfo de los técnicos y de las reformas neoliberales. Durante el porfiriato la clase política del Estado mexicano fue dominada por los llamados científicos que inspiraban sus políticas económicas en el positivismo francés, y su similitud con la tecnoburocracia de Miguel de la Madrid y de Salinas de Gortari es enorme en el sentido de aspirar a crear un espacio incondicional a las fuerzas del mercado, del sector privado y del capitalismo internacional. En 1987 se instituyó el Pacto de Solidaridad Económica (PSE) como un acuerdo tripartito entre la élite empresarial, las organizaciones sindicales oficialistas y el Gobierno destinado a reducir la inflación por medio de las reducciones salariales y los controles de los precios. El objetivo político del PSE fue el restablecimiento de la "armonía de clase" y la moderación en la reformulación eventual de un "pacto social" de naturaleza corporativa. El salario mínimo disminuyó en un 80% en el período de 1988- 91 y el precio de los productos de consumo básico aumentaron en el mismo período en un 250%. La crisis económica también intentó ser remontada a partir de eliminación de las normas restrictivas a la inversión extranjera y en 1985, en el contexto de la negociaciones sobre la deuda externa, se exigieron a México nuevas liberalizaciones en el tratamiento de dichas inversiones; culminando en 1989 con los cambios de la regulación de la Ley sobre Inversiones Extranjeras y con un derecho al 100% del retorno de capital. El estímulo en estos términos a la inversiones extranjeras formulado por el presidente Salinas fue dirigido a las llamadas "áreas estratégicas de la economía" que incluyen el subsuelo, la infraestructura de construcción y servicios públicos, petróleo, industria química, etc. A pesar de la inestabilidad política iniciada con el alzamiento de Chiapas, que culminó con el asesinato del candidato presidencial del PRI y de la alarma que ello creó en sus contrapartes canadiense y norteamericana, los restantes países de América Latina consideran el TLC como la materialización neoliberal del ideal bolivariano del panamericanismo, esta vez bajo la forma de una zona de libre 283
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
comercio desde Alaska a Tierra del Fuego. La ampliación a nuevos miembros (Chile, Argentina, Venezuela, Colombia y Costa Rica) es considerada por los ideólogos latinoamericanos del neoliberalismo como la recompensa justa a la liberalización de la economías y a las drásticas privatizaciones. La angustia frente a la posibilidad de que las inversiones norteamericanas se desvíen a otras regiones, frente al peligro creciente de una conducta proteccionista de la economía norteamericana y la ampliación a otros miembros fuera de la región como Nueva Zelanda; constituye el telón de fondo del nuevo ideal bolivariano. Desde la óptica de los Estados Unidos la ampliación futura del TLC se ve dificultada por el alto coste político que el Gobierno de Clinton debió pagar por la aprobación del Congreso, por la dificultades proteccionistas que crea respecto de los mercados asiáticos y por el hecho de que el 75% de las exportaciones de EEUU tienen un destino que no es el mercado de Canadá y México. Esto último es lo que explica la ambigüedad con que el Gobierno de EEUU reacciona frente a los futuros candidatos y a su preferencia por la búsqueda de acuerdos bilaterales. América Central y la región del Caribe se encuentran marginalizadas de las negociaciones, en la medida en que la primera, con el término de la Guerra Fría, ha dejado de constituir una prioridad en la política exterior de los EEUU, y la segunda, como resultado de las transferencias de la inversiones norteamericanas a México donde encuentran facilidades fiscales hoy por hoy muy superiores a las que tradicionalmente ofrecía la región caribeña. La oposición de EEUU a la aprobación parte del Congreso de los acuerdos del TLC fue conformada por el movimiento sindical, los movimientos de protección y defensa del medio ambiente, campesinos y organizaciones de consumidores, que aglutinaron sus fuerzas en la Citizens Trade Campaign que dijo representar cerca de 40 millones de norteamericanos que manifestaban su disconformidad con los acuerdos formulados por el presidente Bush. Esta organización, financiada por las organizaciones sindicales, encontró en Ross Perot su portavoz más importante. Los argumentos centrales de la oposición al TLC fueron los bajos costes de la mano de obra mexicana y la insuficiente normativa respecto de la protección del medio ambiente que desplazaría el mercado de trabajo hacia México. Los trabajadores norteamericanos serían las primeras víctimas del tratado. Ello quedaba estadísticamente demostrado con el hecho que el salario mínimo por hora en EEUU corresponde a cuatro dólares y en México a 68 centavos. El salario medio industrial equivale en los Estados Unidos a 14,83 dólares y en México a 1,85. Ello explica en parte, porque antes del uno de enero de este año (fecha de entrada en vigor del Tratado) ya se habían instalado en México cerca de 200 empresas de EEUU: Honeywell, Sears, Wal- Mart, General Motors, RCA Components, Ford, General Electric, Procter Silex, etc. La característica común de todas estas empresas es que habían sido sometidas a un proceso radical de reorganización y disminución de puestos de trabajo. El desplazamiento de sectores productivos y trabajo hacia México es un fenómeno real y para muchas de estas compañías responde más a 284
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
los ajustes productivos generados por la globalización de la economía mundial, que al resultado directo de la configuración del TLC y cuya existencia confirma dicho proceso. La oposición de los EEUU suponía que con el mantenimiento de las barreras arancelarias podrían evitarse tales desplazamientos y la competencia del bajo precio de la mano de obra de los Estados Unidos sin considerar la decisión de las empresas norteamericanas de beneficiarse del crecimiento económico de México y de su mercado potencial de 85 millones de habitantes. La desigualdad de salarios no puede ser resuelta sobre la base de acuerdos políticos generados por una ronda de negociaciones. A ello se agrega la liberalización de los servicios financieros y del sector agrícola que abre nuevas posibilidades a la empresas norteamericanas. Tanto los bancos como las empresas de seguros de Canadá y EEUU podrán beneficiarse de un mercado que hasta hace poco les estaba vedado. En el año 2007 deberán eliminarse todas las tarifas y trabas puestas por el mercado financiero mexicano a dichas empresas. Los sectores petroquímicos y de la energía deben ser liberados en un período máximo de diez años y el monopolio estatal de la explotación sobre las fuentes energéticas podrá permanecer a condición de que su mercado de abastecimientos sea liberalizado, aún cuando el Estado mexicano se reserva el derecho a favorecer empresas nacionales en casos calificados. En noviembre del pasado año el presidente Clinton consideraba que un rechazo eventual de los acuerdos del TLC crearía dificultades para las negociaciones norteamericanas con los países asiáticos. EEUU exige de Japón, China y los restantes países del Pacífico Sur la eliminación de las barreras aduaneras en condiciones que le permitan resistir toda medida destinada a ampliar el ingreso de los productos de dicha región en su mercado. El TLC es considerado por los países asiáticos como un proceso de regionalización del proteccionismo, que afectaría principalmente la industria automotriz, la electrónica y textil. Sin embargo, los países asiáticos iniciaron la penetración de la economía mexicana en los inicios de los años noventa en la perspectiva de anticiparse al cierre del mercado regional representado porel TLC. En el año 1991 México exportó productos industriales por un valor de 1.700 millones de dólares obteniendo por primera vez más divisas de las que aportaba tradicionalmente la industria turística. En 1992 dicha cifra llegó a los 2.400 millones de dolares, con el protagonismo de las inversiones de las empresas de Japón, Taiwan, Corea del Sur, Singapur y Hong Kong. Las facilidades de acceso al mercado de EEUU, la energía y el transporte a bajo precio, la existencia de buena mano de obra cualificada y los bajos costes del trabajo constituyen otra parte del estímulo a las inversiones de los países asiáticos. Los costos de los salarios en la región fronteriza de México no alcanzan el 10% de los de EEUU y están por debajo de los costes de Corea del Sur, Singapur y Taiwan; esto no hace más que fortalecer las inversiones de dichos países en la región de la maquila. 285
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Setenta y un años de poder ininterrumpido del Partido Revolucionario Institucional (PRI), el partido que más tiempo ha estado en el poder en el mundo, fueron simbólicamente enterrados el pasado lunes, por miles de manifestantes que aplaudían el inicio de un "Nuevo México" al ser elegido Vicente Fox, candidato del Partido Acción Nacional, (PAN).
NARCOTRAFICO El narcotafico es un típico delito moderno; quizás el típico delito se nuestro tiempo. Combina los datos centrales de la delincuencia: astucia y violencia. Se comete con el ingenio y con la fuerza. Ni el autor ni la victima del narcotráfico se resumen en una o en algunas personas. El delincuente es numeroso, innominado. Son muchos los participantes en el narcotráfico al grado de que este se ha propagado por todo el país y América latina, hasta convertirse en un problema mundial. En México, la regulación de las sustancias químicas utilizadas en la producción ilícita de drogas contempla diversos sistemas de control administrativo. Tanto los precursores químicos como los químicos esenciales son sustancias que están reguladas ya sea como sicotrópicos, sujetas a las disposiciones de la Ley General de Salud, o como sustancias tóxicas o peligrosas, controladas a través de diversos ordenamientos jurídicos por lo que hace a su transporte, a sus posibles efectos en el medio ambiente y a sus efectos en la salud de los trabajadores que están expuestos a ellas. Ley Federal para el Control de Precursores Químicos, Productos Químicos Esenciales y Máquinas para elaborar Cápsulas, Tabletas y/o Comprimidos Además, con el objeto de detectar y prevenir el tráfico ilícito de sustancias químicas, mediante la coordinación de dependencias del Gobierno Federal y la participación de la industria, el Congreso de la Unión aprobó, por unanimidad de votos en ambas cámaras, la Ley Federal para el Control de Precursores Químicos, Productos Químicos Esenciales y Máquinas para elaborar Cápsulas, Tabletas y/o Comprimidos, publicada el 26 de diciembre de 1997 y en vigor desde el 25 de marzo de 1998. La Ley contempla el control de diversas sustancias listadas, un mecanismo para actualizar las listas y la creación de una base de datos que permite un control efectivo de sustancias, operaciones y sujetos.
286
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Las listas de la nueva Ley contemplan la totalidad de sustancias contenidas en la Convención de las Naciones Unidas contra el Tráfico Ilícito de Estupefacientes y Substancias Sicotrópicas de 1988, que son las más comúnmente utilizadas por los delincuentes para producir narcóticos. Asimismo, refleja la tendencia regulatoria del Reglamento Modelo para el Control de Precursores y Sustancias Químicas, Máquinas y Elementos de la Comisión Interamericana para el Control del Abuso de Drogas (CICAD-OEA), y de las legislaciones de la Unión Europea y de EUA. Para la instrumentación de la base de datos han trabajado conjuntamente diversas dependencias del Ejecutivo Federal y el Consejo de Salubridad General. Actualmente el Consejo de Salubridad ya cuenta con la infraestructura necesaria para recibir la información correspondiente por parte de las dependencias. Cabe señalar que diversas áreas de la Secretaría de Salud (SSA), Secretaría de Comercio y Fomento Industrial (SECOFI) y la Secretaría de Comunicaciones y Transportes (SCT) ya han comenzado a ingresar información en la base de datos. Las unidades administrativas de la PGR especializadas en control de drogas, tienen acceso directo en red a la base de datos, lo que permitirá la oportuna fiscalización de actividades que pudieran implicar un desvío de precursores químicos o productos químicos esenciales. Reglamento de la Ley Federal para el Control de Precursores Químicos, Productos Químicos Esenciales y Máquinas para elaborar Cápsulas, Tabletas y/o Comprimidos El 15 de septiembre de 1999 fue publicado en el Diario Oficial de la Federación el Reglamento de la Ley Federal para el Control de Precursores Químicos, Productos Químicos Esenciales y Máquinas para elaborar Cápsulas, Tabletas y/o Comprimidos, mismo que entró en vigor al día siguiente de su publicación. Este ordenamiento reglamentario es resultado del trabajo coordinado de las distintas dependencias encargadas de la aplicación de la Ley, así como del Consejo de Salubridad General, con la participación del sector privado. Este ordenamiento define el concepto de “merma” como: “Los precursores químicos o productos químicos esenciales que se consumen o pierden en el desarrollo normal de las actividades reguladas”, así como el procedimiento para su calculo. Para el control de la importación y exportación la SHCP y la SSA integrarán en la base de datos la información relativa a pedimentos aduanales y permisos de 287
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
importación y exportación de precursores químicos y productos químicos esenciales, respectivamente.
La información que contenga la base de datos podrá compartirse con las demás dependencias, lo que permitirá un mejor control respecto del destino que se le asigne a las sustancias reguladas, evitando así su desvío a la producción ilícita de drogas. La información que se obtenga al respecto se ingresará a la base de datos, lo que permitirá agilizar la identificación de actividades irregulares. En virtud de la sofisticación y de los cada vez más complejos medios a través de los cuales opera la delincuencia organizada, se publicó en el Diario Oficial de la Federación el 7 de noviembre de 1996 la Ley Federal contra la Delincuencia Organizada. La Ley dispone que la PGR deba contar con una unidad especializada en la investigación y persecución de delitos cometidos por miembros de la delincuencia organizada. Dicha unidad debe integrarse con Agentes del Ministerio Público de la Federación, auxiliados por Agentes de la Policía Judicial Federal, Peritos y un cuerpo técnico de control. En cumplimiento de lo dispuesto por la referida Ley, por Decreto publicado en el Diario Oficial de la Federación el 30 de abril de 1997, se reformó el Reglamento de la Ley Orgánica de la Procuraduría General de la República y se creó la Unidad Especializada en Delincuencia Organizada (UEDO), como una unidad administrativa dependiente de la PGR, con las atribuciones que le confiere la multicitada ley. El Reglamento de la Ley Orgánica de la Procuraduría General de la República establece como requisito de ingreso y permanencia en la Unidad, la aprobación de las mismas evaluaciones a que deben someterse los miembros de la FEADS.
288
Guía para el Examen de CENEVAL Acuerdo 286 para Bachillerato de ApoyoEducativo.Com
2012
Información legal y de contacto
La información contenida en este documento puede cambiar sin previo aviso. Ninguna parte de este documento puede ser reproducida o transmitida de ninguna manera ya sea electrónica o mecánica para ningún propósito sin el explicito permiso de Sistemas Informáticos Tlatoani y/o su subsidiaria ApoyoEducativo.Com Todas las marcas mencionadas dentro de este documento son propiedad de sus respectivos dueños y son protegidos por las leyes de derechos de autor, nacionales e internacionales vigentes. ® 2012 Sistemas Informáticos Tlatoani Todos los derechos reservados Para obtener una copia impresa de este documento con los respectivos costos que impliquen, la puede solicitar en: Sistemas Informáticos Tlatoani [email protected] Tel / Fax (55) 22 32 44 33
289