UNIDAD 1 Introducción. Conceptos básicos
1.1. Las TIC´s y áreas de aplicación. 1.2. Componentes de un sistema de cómputo. 1.3. Dispositivos de almacenamiento. 1.4. Dispositivos de procesamiento. 1.5. Dispositivos de Entrada/Salida. 1.6. Tipos de computadoras y sus dispositivos.
1.1. Las TIC´s y su aplicación a las necesidades de Información Globalizada La influencia de la globalización tecnológica en el campo de las Tecnologías de Información y Comunicación ha alcanzado límites increíbles e inimaginables en la actualidad llegando a considerarse incluso como un cuarto poder muy aparte de los res que generalmente tiene un país. El impacto de los amplios usos de estas herramientas basadas principalmente en la ingeniería informática permite hoy a las sociedades acceder a servicios que antes eran monolíticos o exclusivos para algunos clientes. Información digital en inmensas cantidades es transmitida y recibida por las distintas redes que hacen posible el acceso a servicios que no solo son de datos alfanuméricos ya que ellos también tienden a ser gráficos. Los usuarios no solo suben o 1
bajan datos también intercambian datos llegando en algunos algunos casos a realizar operaciones principalmente en campos donde ellos encuentran servicios como el de la banca al hacer un deposito o transacción monetaria, transporte al comprar tickets electrónicos, hospedaje ya que pueden debitar directamente de sus cuentas los gastos que conlleva esta actividad o incluso realizar compras o vender artículos online desde cualquier parte del mundo. En todas estas actividades los usuarios requieren visualizar el lugar, la ruta a seguir o donde comprar o vender lo que les interesa. El presente documento pretende realizar un cercamiento a los avances y aplicaciones de las TIC´s en el campo de la visualización y sistematización de la información que se maneja en un mundo globalizado que es tendiente a brindar servicios y acortar distancias. Partiendo de la base de que se deben unificar los procesos relacionados con la información que debe facilitarse a los usuarios; varios dispositivos y aplicaciones son desarrollados para cumplir con este fin. La tendencia de las redes informáticas como sistemas integrados basan principalmente su funcionamiento en catálogos, servidores, software; aplicaciones que están al alcance de todos a través de la Web. Por ello es también importante enfatizar que en Internet, estas cumplan una serie de condiciones de interoperabilidad normas, especificaciones, protocolos, interfaces,…).
2
bajan datos también intercambian datos llegando en algunos algunos casos a realizar operaciones principalmente en campos donde ellos encuentran servicios como el de la banca al hacer un deposito o transacción monetaria, transporte al comprar tickets electrónicos, hospedaje ya que pueden debitar directamente de sus cuentas los gastos que conlleva esta actividad o incluso realizar compras o vender artículos online desde cualquier parte del mundo. En todas estas actividades los usuarios requieren visualizar el lugar, la ruta a seguir o donde comprar o vender lo que les interesa. El presente documento pretende realizar un cercamiento a los avances y aplicaciones de las TIC´s en el campo de la visualización y sistematización de la información que se maneja en un mundo globalizado que es tendiente a brindar servicios y acortar distancias. Partiendo de la base de que se deben unificar los procesos relacionados con la información que debe facilitarse a los usuarios; varios dispositivos y aplicaciones son desarrollados para cumplir con este fin. La tendencia de las redes informáticas como sistemas integrados basan principalmente su funcionamiento en catálogos, servidores, software; aplicaciones que están al alcance de todos a través de la Web. Por ello es también importante enfatizar que en Internet, estas cumplan una serie de condiciones de interoperabilidad normas, especificaciones, protocolos, interfaces,…).
2
Más allá del riesgo que involucran estas tecnologías esta por ejemplo el deterioro de las relaciones humanas, la dependencia y adicción a las maquinas, la falsa idea que en internet este toda la información y que esta se limite a la cultura de webs, wikis, blogs, visualización de videos en You Tube, pues dicha información puede estar poco contrastada o tal vez fuera de la realidad cultural que se pretende mostrar. Lo positivo del aporte y avance del las TIC´s en la información globalizada radica en su gran aporte en aplicaciones de Sistemas de posicionamiento Global “GPS”, fusión de tecnologías de imágenes satelitales y de GPS a través de Google Maps o Google Earth. Viajes alrededor del mundo, viajes por el espacio, visitas a Marte o incluso viajes al fondo del mar, un sinfín de posibilidades abiertas a necesidades de información globalizada. AREAS DE APLICACIÓN Tecnología de Información y su Aplicación Estratégica Abstracto: Este articulo presentará la Tecnología de Información como una herramienta estratégica para la estrategia corporativa ya que tiene como objetivo además de apoyarla, ayudar a definirla. Posteriormente tocará un poco sobre cada elemento clave de la TI (procesamiento de datos, automatización de oficinas, telecomunicaciones, inteligencia artificial y la
3
tecnología Internet) su aplicación estratégica y algunos pensamientos de hacia dónde se dirige. Apoyando la Estrategia Corporativa La tendencia de la Tecnología de la Información (TI), en los últimos años, en los países más desarrollados ha sido la de apoyar la estrategia corporativa. Sin embargo, en los países en vías de desarrollo la TI se ha limitado solamente a apoyar la administración financiera y las operaciones básicas (contabilidad, cuentas por pagar, cuentas por cobrar, inventarios, facturación, presupuesto, etc.). Tal vez, lo más difícil que enfrenta una empresa que desea introducir o mejorar la TI es la falta de una estrategia corporativa clara; sin ésta, es muy fácil equivocarse e invertir grandes cantidades de dinero en aplicaciones que no tienen ninguna funcionalidad estratégica para la organización. Muchas empresas creen que computarizar las herramientas de control es en sí una estrategia, e insisten que el hacerlo les proporciona ventajas competitivas con las demás empresas que no tienen "informática". ( Según el Diccionario Larousse, informática se define como: "Ciencia del tratamiento automático y racional de la información considerada como soporte de los conocimientos y las comunicaciones"). Y esto es el error más grande que pueden cometer, el de compararse con otras empresas y pensar que todavía están est án en la década de los 80 y que la globalización no existe. Quiero clarificar este punto, la realidad es que las empresas miltinacionales que 4
vienen a nuestros países en vías de desarrollo, ya tienen como arma estratégica para competir una tecnología de información más avanzada que la que generalmente nosotros tenemos. Y es con esas empresas que nos tenemos que comparar para poder competir en este mundo globalizado. ¿Cómo vamos a competir con estas empresas que tienen tanto capital invertido en tecnología, personal altamente entrenado y por lo general más productivo? En primer lugar, lo más importante es tener la convicción de que podemos competir si tenemos una estrategia clara que nos dé una dirección correcta hacia el futuro, y en segundo lugar, tener las herramientas que nos apoyen a lograr esta estrategia. Y qué es estrategia? No quiero entrar en una discusión de qué es estrategia, pero digamos que tiene que ver con el posicionamiento de una empresa en un mercado, de tal forma que le dé a sus clientes valores agregados en base a la conveniencia de adquirir un producto o servicio, en base a la necesidad por un producto o servicio o por la variedad de productos o servicios que ofrece. Larousse define estrategia como: "habilidad para dirigir un asunto"; Michael Porter la define como: (Michael Porter, What is Strategy, Harvard Business Review, pág. 68, noviembre-diciembre 1996) " la creación de una posición única y de valor que envuelve un grupo de diferentes actividades." El punto aquí es, que para mantener una posición estratégica hay que ser bueno en una serie de actividades complementarias entre sí, que son las que 5
al final nos diferencian de los demás e instan a los consumidores a escogernos. También Porter distingue en el mismo artículo que la eficiencia operacional es hacer una actividad mejor que los rivales, pero que no debemos de confundir la búsqueda de la productividad, calidad o velocidad y las herramientas para lograrlas como calidad total, benchmarking, reingeniería, etc. como la estrategia misma. Porter también dice que el éxito de toda estrategia depende en hacer muchas cosas bien, no solo unas pocas, integrándolas entre sí. Aquí es donde yo quisiera regresar a la tecnología de información y asegurar que es la única herramienta que existe con una capacidad integradora total y que puede integrar las cosas que hacemos bien para desarrollar con éxito la estrategia corporativa. La integración no se da solamente en dos dimensiones, sino que se da en cuatro dimensiones. Integra las herramientas de control, de toma de decisiones y de apoyo (dos dimensiones, el plano corporativo) con la gente, la cultura corporativa, la visión, misión y objetivos estratégicos (le agrega fondo y por tanto una tercera dimensión) y las proyecta en el tiempo (la cuarta dimensión) satisfaciendo a su paso los mercados dinámicos de este mundo globalizado. Plan Estratégico para el Uso de la Tecnología de Información (PEUTI) Este tema no lo quiero ahondar mucho ya que en si mismo es un tema muy rico, pero deseo mencionar que para utilizar 6
correctamente la TI es esencial al elaboración de un plan estratégico para su uso. Como puntos específicos en el desarrollo de este PEUTI hay que iniciar identificando la Visión, Misión, y objetivos estratégicos, correlacionarlos con los factores clave de éxito (FCE) que los apoyan, analizar las áreas de negocios y los procesos, e identificar la aplicaciones necesarias que tendrán la funcionalidad que necesita la organización. Una vez identificado lo anterior es importante elaborar matrices de FCE-aplicaciones, y áreas de negocioaplicaciones y en base a esto prioritizar las aplicaciones a desarrollar y elaborar la calendarización necesaria en base a la disponibilidad de recursos. Componentes de la TI Otro factor importante es conocer y saber utilizar los distintos componentes de la TI en una forma racional y adecuada para lograr esta integración y así poder sostener el posicionamiento de nuestra empresa. Por eso es que en este momento quiero aterrizar un poco y discutir qué ventajas estratégicas nos pueden dar los componentes básicos de la TI. Procesamiento Electrónico de Datos Quisiera iniciar por el Procesamiento Electrónico de Datos, sin duda el componente de la TI más utilizado en la actualidad y que cumple con una función fundamental en la organización. Utilizar el hardware y el software para automatizar el proceso de recolección, análisis y salida de datos para convertirlos en 7
información seguirá siendo fundamental en cualquier organización. En este sentido la utilización de Sistemas de Administración de Bases de Datos Relacionales (RDBMS, por sus siglas en inglés) deberá ser la única alternativa real con la que cuente una organización para manipular sus datos e integrar en dos dimensiones los sistemas orientados al control y a la toma de decisiones. Como concepto fundamental para el uso de un RDBMS deberíamos de tener en cuenta que los datos de entrada al sistema deberán de enterarse una sola vez y en su lugar de origen, ya que esto es lo único que garantiza una integración real al no duplicarlos. La aplicación de este concepto eliminará la redundancia y hará eficiente el uso de este recurso informático. Otro concepto importante para la utilización eficiente de un RDBMS es la separación en dos etapas es la forma en que un sistema manipula los datos: etapa usuarios-datos y etapa datos-procesamiento. Para un usuario el hacer altas, bajas y cambios en los datos deberá ser un proceso amigable, rápido y confiable utilizando un ambiente de ventanas como los brindados por Windows. Esta etapa de manipuleo por estar al frente del usuario, en inglés se le llama front-end, y por lo general se hace con programas como Visual-Basic, MS Access, etc., pero lo importante aquí es que los front-end cambiarán y antes del año 2000 serán navegadores de internet, como Netscape Communicator y MS Internet Explorer utilizando lenguajes comunes que sirvan de interfase y puertas de interacción con servidores Web o programas hechos en CGIs 8
(Common Gateway Interface) para publicaciones, y en APIs (Application Processing Interface) propietarios como Java, Java-Script, Active-X, etc. para el procesamiento de los datos. La segunda etapa, en donde el dato es procesado, se llama en inglés back-end, y aquí los RDBMS (como Informix, Oracle, Sysbase, etc.) funcionan como máquinas eficientes en el manipuleo que transformarán los datos en información. Estratégicamente hablando, el no tener redundancia en los datos y tener facilidad de accesarlos nos hará más eficientes. Como ultimo punto deseo mencionar que los RDBMS modernos ya incorporan facilidades para el manejo de objetos como fotos, textos completos, textos escaneados, planos, voz, sonidos, etc.. Inclusive ya se ven tendencias de la integración de tecnologías CAD/CAM (Computer Aided Manufacturing/Computer Aided Design) con MRPII (Materials Requirement Planning II) y con tecnología Internet. Automatización de Oficina (AO). La AO ayuda a mejorar la productividad e integra las funciones básicas para la elaboración de documentos; provee una serie de herramientas que ayudan en el análisis de sensibilidad de escenarios corporativos en distintas áreas del negocio y ayudan en la presentaciones internas y externas que promueven la venta de nuevas ideas, productos o servicios. Además, nos apoyan en la planificación de nuestro tiempo en carácter individual y en la programación de la utilización de recursos en los proyectos. Este campo de la TI será uno de los 9
que tendrá un impacto más profundo en la cultura futura de las corporaciones. La razón de lo anterior se debe precisamente a la incorporación de tecnología Internet en todas las herramientas que se utilizan para la AO, y en algunos casos más específicos aplicaciones de grupo. Escenarios distintos se pueden imaginar en este campo, por ejemplo documentos compartidos y siendo editados en tiempo real por varias personas al mismo tiempo independientemente de las fronteras geográficas; la incorporación de multimedia, incluyendo voz y video para las comunicaciones interactivas sin necesidad de la utilización de aparatos telefónicos son ya una realidad, y la tecnología está al alcance de cualquier empresa; correos electrónicos interactuando con acceso a bases de datos corporativas, enviando y recibiendo información mientras se actualizan las bases de datos. En fin, todo aquello que mueva la información y no el papel serán factores clave para mejorar la productividad de la oficina. En este componente los intranets, es decir redes corporativas privadas utilizando la tecnología internet, jugarán un papel preponderante. Telecomunicaciones Las telecomunicaciones han jugado un papel clave en la tecnología cliente/servidor, en la conexión de servidores en Redes Locales (LAN, por sus siglas en inglés) y Redes Amplias (WAN, por sus siglas en inglés); y con el advenimiento del Internet un papel esencial en la globalización. El Internet es lo más importante que le ha sucedido a las telecomunicaciones 10
en toda su historia. Para ver la magnitud que las comunicaciones tienen en la tecnología de la información en la actualidad, podemos citar el estudio hecho por Mark Lottor de Network Wizzards en Menlo Park, California, EEUU, julio 1997 (http://www.nw.com; ftp://ftp.nw.com/zone), en donde las últimas medidas arrojan que hay 19.5 millones de computadoras (hosts u hostales) conectadas al internet en 214 países. En este sentido el crecimiento anual esperado es de 52% en forma lineal (Ya dejó de crecer en forma exponencial y está creciendo linealmente en 18,339 hostales por día.), pero lo interesante es que el crecimiento de servidores de www (por sus siglas en inglés, world wide web) sigue siendo exponencial creciendo 256% anual a un nuevo total a julio del 97, de 760,000 hostales de www. Lo relevante de lo anterior es que existen protocolos de comunicación como el TCP/IP que han hecho de las telecomunicaciones algo fácil, y por esta razón el potencial de crecimiento sigue siendo espeluznante, y las posibles aplicaciones para la estrategia corporativa, apenas se están conociendo. Inteligencia Artificial Este es un campo muy interesante, y que estuvo de moda en la década de los 80, pero cayó en el letargo a causa de la explosión de la tecnología Internet. Aun así, es importante tener en cuenta que éste componente de la TI está aún en pañales. Las aplicaciones de inteligencia artificial que se 11
desarrollan en la actualidad a través de Sistemas Expertos, tienen papeles importantes, aunque poco difundidos, en la estrategia de algunos negocios como hospitales, oficina de leyes, seguros, y la banca, entre otros. Es de esperar que éste componente se desarrolle más gracias al Internet. Ya se está hablando de policías robots con facultades de navegar libremente en el tejido del mundo del internet investigando transacciones comerciales, detectando acosos sexuales, y otras cosas como estas. Aunque no creo que esto suceda pronto debido a los problemas de invasión de privacidad e inclusive de soberanía que esto pueda tener. Internet/intranet Probablemente representa el más grande potencial que tienen las corporaciones para desarrollar estrategias de negocios dentro de la globalización, pero también representa la oportunidad que tienen las empresas pequeñas de proyectarse como las empresas grandes independientemente de las fronteras geográficas. El Comercio Interactivo será un elemento esencial para el Sistema de Transacciones Comerciales en el Internet, el cual tendrá como objetivo convertir a navegantes y mirones ocasionales (del Internet) en clientes. El reto para las empresas que participen en el comercio interactivo será el de preparar la infraestructura adecuada con constante conexión al Internet, y como ya lo mencionábamos antes cuando discutimos sobre el
12
procesamiento de datos, teniendo el Web como front-end y las bases de datos corporativas como el back-end. Mirando introspectivamente y haciendo uso de los intranets, ésta tecnología ayudará a mejorar la comunicación interna impactando así la cultura corporativa de una forma muy positiva. También ayudarán a la implementación de herramientas que tengan como objetivo la eficiencia operacional porque facilitará que los equipos de trabajo y los individuos sean facultados a tomar decisiones debido al acceso compartido de información sin que medien fronteras geográficas. Finalmente, el Intranet es una excelente herramienta para promover la visión, misión y los valores corporativos y así lograr la sinergia necesaria en este mundo de alta competitividad e indiscutible camino hacia la globalización total. Considero que las empresas que tomen la decisión de iniciar a planificar una orientación hacia los Intranets tendrán ciertas ventajas competitivas, especialmente en el bajo costo de los programas de navegación vs. los clientes convencionales. En este sentido, sí deseo recomendar que hay que iniciar el movimiento con las aplicaciones de bases de datos de bajo riesgo y así minimizar la posibilidad de comprometer la integridad de la data. Para ahondar mas sobre este punto ya que lo considero fundamental en el desarrollo futuro de la TI en el mundo corporativo quisiera citar lo que dice un estudio hecho por la 13
empresa Giga Information Group, Mejores Prácticas en el Diseño de la Capacidad Internet/Intranet Emergente, 1996, en empresas que han desarrollado con éxito aplicaciones en Internet/intranet: Las técnicas de diseño Internet/intranet tienen que ver con acceso a bases y bodegas de datos, integración del correo-e, integración de los mainframes con tecnología cliente/servidor, Intercambio Electrónico de Data (Electronic Data Interchange, EDI) basado en el Internet, y las alternativas de colaboración del contenido o administración del conocimiento. Un diseño exitoso se basa la escogencia correcta de navegadores, servidores, seguridad, muros de fuego, redes TCP/IP, herramientas de publicación de contenido, estaciones de trabajo y bases de datos. Y esto a su vez depende de la evaluación de la estrategia del vendedor de tecnología para la infraestructura, software para el cliente, software de servidores y paquetes de software con capacidades de web. El mismo estudio de Giga cita que el propósito que han tenido las aplicaciones con tecnología Internet/intranet (Internet e intranets ahora representan una sola tecnología) han sido orientados hacia: Herramientas estratégicas de mercadeo para llegar a nuevos clientes, Internet. Comercio Electrónico, Internet
14
Comunicación Interna Estratégica, Intranet (Ver: http://www.uam.edu.ni/usuarios/ejn/intranet/intranet.htm) Herramientas Estratégicas para Comunicaciones Externas, Internet En este sentido el estudio encontró que el catalizador principal para el desarrollo de esta tecnología fue el empuje que ha tenido el Comercio Electrónico y los beneficios resultantes. Por el lado de reducción de costos o simplemente evitar costos estos beneficios se reflejan en: 1. Bajar los costos de servicio al cliente, 2. Mejorar el servicio al cliente, 3. Mejorar el Comercio Electrónico (EDI), y 4. Adicionar socios comerciales. Por el lado de la generación de Ingresos se encuentran: 1. Venta de productos, 2. Venta de anuncios, ($74 millones en 1996, $2.6 mil millones estimados, en el 2000) 3. Venta de información, y 4. Canal de ventas adicional. Conclusiones 15
Como podemos ver existen oportunidades en cada uno de los componentes de la TI para apoyar la estrategia corporativa, pero más aún, podemos concluir que sin una tecnología de información adecuada que apoye la estrategia, una empresa no podrá competir en el mundo globalizado. También podemos inferir que la utilización de todos los componentes de la TI tienen un grado de complejidad no apta para ser implementados por aquellos que tienen pocos conocimientos en la tecnología existente en las vísperas del nuevo milenio. Por último, es importante hacerle ver a los gerentes corporativos que cuando piensen en desarrollar su estrategia empresarial es de vida o muerte la incorporación de una estrategia tecnológica que les permita sostener su ventaja competitiva. Y es que un negocio es como andar en bicicleta, si uno no mantiene la velocidad, se cae. Un último pensamiento: El primer paso que ustedes deberían de tomar si desean ser exitosos es decidir qué tipo de empresario o ejecutivo desean ser. Hay tres categorías: Personas que hacen que las cosas sucedan; aquellos que ven cuando las cosas suceden; y aquellos que se preguntan que fue lo que pasó. ACTIVIDAD INVESTIGAR CAMPOS DE APLICACIÓN TECNOLOGIAS DE LA INFORMACION.
16
DE
LAS
1.2. Componentes de un sistema de cómputo. USUARIO: Puede definirse el término Usuario como cualquier persona que pide o recibe servicios de proceso de datos. Entre los usuarios se encuentran estudiantes, ejecutivos de corporaciones que efectúan complejos análisis financieros de ventas anuales etc. Los usuarios generan la demanda de los Servicios de Computación. Diferentes Usuarios que utilizan las Computadoras Usuario: Es la persona que utiliza la computadora para realizar un trabajo y obtener de está un resultado. Superusuario: Usuario que tiene acceso a cualquier punto del sistema sin restricciones y cuenta con todos los privilegios. Administrador de Sistemas: Persona Técnica encargada de gestionar el sistema: Contabilidad, usuarios, Permisos etc. es súperusuario ya que es un usuario privilegiado con todo tipo de privilegios. Usuario Privilegiado: Usuario que cuenta con ciertos privilegios para realizar algunas funciones o acceder a cierta información no accesible al resto de usuario. Usuario no Privilegiado: Usuario que solo puede acceder a su propia información y a la que le permitan los demás. Operador: Persona especializada y dedicada a manipular la computadora con objeto de realizar determinados trabajos de accionamiento y control de los equipos. 17
Programador: Persona especializada y dedicada a codificar programas en lenguajes de alto nivel o bajo nivel para ser ejecutados en computadora. Otras de sus misiones son el mantenimiento y documentación de los programas. Podemos diferenciar 2 tipos de programadores: Programadores de aplicaciones: Es el encargado de codificar programas para los usuarios finales. En general suelen desarrollar aplicaciones compuestas por uno o más programas sin privilegios especiales. Programadores de Sistemas: Es el encargado de desarrollar programas y utilidades del sistema operativo. Son programas específicos que se desarrollan para resolver un problema. HARDWARE Representa la parte física de un sistema informático (Computadora) incluyendo procesador, memoria, almacenamiento etc.
ESQUEMA BASICO DEL HARDWARE.
18
QUE SON LOS PERIFÉRICOS: Se puede considerar periférico a todo aquel dispositivo en contacto con la computadora de forma externa, es decir, no incluido como parte integrante de su placa principal. Así, por ejemplo, la tarjeta de video es un periférico de salida que funciona en conjunción con el monitor. En este sentido, si el ordenador dispone de una placa que integra el sistema de video, no se podrá considerar dicha placa como periférico, pero sí al monitor, puesto que en cualquier caso este dispositivo nunca ira incluido en la placa principal de la computadora Atendiendo a la dirección en la que se desplaza la información a través de ellos, los periféricos pueden ser básicamente de tres tipos: periféricos de entrada, de salida y de entrada/salida.
1.3. DISPOSITIVOS DE ALMACENAMIENTO Memoria auxiliar o dispositivos de almacenamiento En la actualidad se utiliza principalmente dos tecnologías para almacenar información: Almacenamiento magnético y el Óptico. Son dispositivos de almacenamiento masivo de información durante el tiempo que se desee, recuperándola cuando sea requerida. Es útil pensar en el almacenamiento como si fuera un archivero electrónico y en la memoria principal como si fuera una mesa de trabajo electrónica. Cuando necesitas trabajar con una serie de datos la computadora extrae los datos del archivero y los pone sobre la mesa. Cuando ya no necesita los datos, los guarda en el archivero.
19
Dispositivos de almacenamientos magnéticos Disco flexibles: Son fabricados en material plástico recubierto con una capa de oxido magnético muy delgado, el cual esta dentro de una funda protectora de plástico grueso, para evitar que se doble, raye o contamine durante su manejo. Tiene las siguientes presentaciones:
Los discos nuevos (magnéticos y ópticos) hay que “mapearlos” o formatearlos, primero para crear una serie de círculos concéntricos magnéticos llamados “Pistas”. Su número varía conforme al disco. Cada pista esta dividida en partes muy pequeñas. Cada división corta transversalmente todas las pistas del disco, resultando segmentos más pequeños llamadas “Sectores” por ejemplo: si un disco tiene 80 pistas y 18 sectores por pista tiene 1440 sectores por cara como son dos lados 1440 x 2 = 2880 sectores en total. Cada sector es numerado en forma única comenzando con los sectores de la parte externa o sea de afuera para adentro empezando con el sector cero. Aunque los sectores se distribuyen en círculos concéntricos, la computadora los ve como si fuera una línea recta única. En la mayoría de los discos, un sector contiene 512 bytes. El sector es la unidad más pequeña con la que cualquier disco puede trabajar. 20
No todos los sectores de un disco flexible son usados para almacenar datos. Algunos sectores mantienen datos sobre el mismo disco y donde esta localizada la información en este.
Solo quita el 1.1% del espacio total del disco.
Registro de arranque: Es un pequeño programa que corre cuando se enciende la computadora. Determina si el disco tiene o no los componentes básicos del Sistema Operativo DOS necesarios para correrlo con éxito, si determina que los archivos necesarios están presentes y que el disco tiene formato valido pasa el control a uno de los programas del DOS el registro de arranque también describe otras características del disco como en el número de bytes por sector y por números de sectores por pista. FAT (Tabla de asignación de archivos) es un registro que graba la ubicación de cada archivo y el estado de cada sector. Cuando grabas un archivo en el disco, El Sistema Operativo revisa el FAT para localizar un área libre, almacena el archivo y lo identifica junto con su ubicación en la FAT. Directorio Raíz: Normalmente los usuarios no necesitan ver la información en la FAT, pero sí utilizan a menudo la información del directorio. En un disco el directorio detalla la información específica acerca de cada archivo, como el nombre del archivo, su tamaño, la hora, y fecha en que fue creado ó su última modificación, entre otros datos.
21
Discos duros: Estos se han convertido en el principal dispositivo de almacenamiento de las computadoras debido a que son increíblemente cómodos. En velocidad y capacidad sobrepasan en cada giro al disco flexible ya que pueden almacenar más que un disco flexible debido a que el medio, la velocidad y precisión de giro del disco permiten que la información sea acumulada más densamente y tenga un rápido acceso. El Disco Duro esta compuesto por metales rígidos de cobre y aluminio y pude almacenar desde 5MB hasta miles de MB (Gigabytes). Diferencias entre los Discos Flexibles y los Discos Duros:. 1. Los discos flexibles están separados de la unidad lectora, en cambio la unidad lectora del Disco Duro y el disco están unidos los dos términos se utilizan recíprocamente y significan toda la pieza disco y unidad. Algunas fabricantes hacen Discos Duros removibles los cuales se conectan a una unidad separada. 2. Una diferencia física de importancia entre estos discos es que los discos duros son rígidos (metal frecuentemente aluminio) en lugar del material flexible de los discos flexibles. 3. Debido a que las tolerancias y rigidez del metal con que está construido el disco duro permiten al disco girar mucho más rápido que un disco flexible, un disco duro gira a una velocidad cercana a las 5400 hasta 10000 RPM (revoluciones por minuto) en lugar de las 300 RPM de un disco flexible. 4. Los discos duros almacenan mucho mas información por pulgada cuadrada que un disco flexible, esté puede tener 135 pistas por pulgada en cambio el disco duro fácilmente puede comprimir correctamente más de 100 pistas x pulgada.
22
5. Los discos flexibles solo tienen dos lados o dos caras en cambio los discos duros pueden llegar a contener hasta 12 lados pero solo se pueden utilizar 10 lados. En los discos duros se le llaman cilindros lo que en los discos flexibles se le llaman pistas ya que es la misma pista a través de todos los lados. 6. En ambos en discos duros y discos flexibles, el contenido de los sectores es igual de 512 bytes, pero contienen los discos duros mayores sectores x pista 54, 63 ó más. A continuación se presentan los principales soportes de almacenamiento alternativos a los sistemas más extendidos, esto es, discos duros tradicionales, los discos flexibles o los discos compactos. Discos duros extraíbles estos discos permiten disponer de espacio adicional de almacenamiento, aunque su intercambio con otras computadores esta limitado por las características particulares de la instalación de estos dispositivos, que necesitan de una bahía de expansión, en el frontal de la caja del PC, convenientemente preparada para facilitar la inserción y extracción de la unidad. Esta es la principal diferencia de estas unidades respecto de los discos duros externos (conectados normalmente al bus SCSI mediante un cable), una de las desventajas de este sistema de almacenamiento es la necesidad de apagar la computadora para proceder a instar la nueva unidad. Unidades Jaz: Es una categoría equivalente a los discos duros extraíbles, se encuentran diversos formatos de almacenamiento, con la diferencia de utilizar cartuchos que encierran la superficie donde se almacenan los datos (como si se tratara de un disco flexible). Uno de estos dispositivos de uso mas extendido es Jaz, desarrollado por Iomega, en versiones internas y externas, y para interfaz SCSI. Los discos 23
que utilizan alcanzan una elevada capacidad 1 GB o 2 GB dependiendo del modelo, con una velocidad de transferencia cercada a los 6,6 MB/s y un tiempo de acceso medio de 12 minutos. Unidades Zip: Otro medio de almacenamiento desarrollado por Iomega es Zip, un soporte muy extendido gracias a su reducido costo y la facilidad de su instalación. El formato Zip presenta dos especificaciones distintas, con capacidades para 100 MB y 250 MB, con una velocidad de transferencia aproximada de 1,4 MB/s y un tiempo de acceso medio de 29 minutos. Unidades de cinta: Las unidades de cinta de Backup almacenan información en una larga secuencia, en la cual se escribe información digital en vez de información analógica como la cinta de audio. El mejor uso para el almacenamiento en cinta es para la información que no se usa con frecuencia. Debido a que es una tira larga de material magnético, se tienen que escribir en ella en forma secuencial. El acceso secuencial es mucho más lento. Son medios de almacenamiento poco prácticos. Una importante desventaja es que su vida útil es muy reducida, por lo que se recomienda renovar un respaldo aproximadamente cada dos o tres años, pues se corre el riesgo de que la información se vaya deteriorando Dispositivo de almacenamiento óptico Actualmente el almacenamiento óptico es la principal alternativa para el almacenamiento magnético. Las técnicas de almacenamiento óptico hacen posible el uso de la localización precisa mediante 24
rayos láser. El láser utiliza una luz concentrada y delgada. Aunque leer información de un medio óptico es fácil escribirla es otro asunto. El problema está en la dificultad para modificar la superficie ya que la información esta grabada en diminutos pozos llamados (pits) y planos llamados (lans) que son equivalentes a 1 y 0 . Los pozos reflejan la luz hacía un censor y los llamados planos la dispersan. A diferencia de un medio magnético donde cualquier punto en la superficie es físicamente igual a cualquier otro, en los discos ópticos su superficie está perforada. Pueden tener una densidad de 16,000 Pistas por Pulgada y la longitud total de la pista alcanzada es de aproximadamente. 4.5 km. La gran capacidad de almacenamiento y la seguridad ó Confiabilidad que ofrece este método hacen a los discos ópticos ideales para aplicaciones de archivos, respaldo y recuperación de datos. Cd-Rom (Disco compacto de memoria de solo lectura). Utiliza la misma tecnología que la de discos compactos para música. Es un medio útil de información que raramente cambia. El soporte físico de un disco compacto esta fabricado con poli carbonato, tiene un diámetro de 120 mm, un grosor de 1,2 mm y el orifico del centro mide 15mm. Una de sus caras esta recubierta con una película metálica, por regla general una aleación de aluminio, que se denomina strata. Esta película esta recubierta, a su vez, por una laca de poli carbonato platico a modo de protección. En dicha cara del disco se almacenan los datos que, después, leerá la unidad de CD-ROM MO (Medios Magnéticos - Óptico) Combina algunas de las mejores características de la tecnología de grabación magnética y óptica. El medio que utilizan es diferente a los de ópticos ó magnéticos. El disco 25
esta cubierto con cristales metálicos magnéticamente sensibles colocados bajo una delgada capa de plástico. En su estado normal el plástico que cubre los cristales es sólido, evitando que se muevan. Para escribir, un intenso rayo láser es dirigido hacia la superficie que por breves instantes ablanda la capa de plástico lo suficiente para permitir al imán cambiar la orientación de los cristales. Para leer la información del disco, la unidad enfoca un rayo láser de menor intensidad en la pista de los cristales. Al ir pasando debajo del rayo, algunos puntos de la pista reflejan la luz dando lugar a la secuencia de 1 y 0 que la máquina reconoce. Actualmente los discos MO están disponibles en varios tamaños y capacidades. El tamaño habitual de los discos utilizados por estas unidades es de 2 pulgadas y media, con capacidades de 128 MB, 230 MB y 640 MB, aunque algunos modelos superan los 2 GB. Los MO son lentos pero su desempeño es impresionante y son portátiles. Son más lentos que el Disco duro y el disco flexible. La ventaja de estos discos MO. Es que pueden operar sin ningún problema en una amplia variedad de temperaturas desde un punto de congelación hasta 380 C, lo que no puede hacer los medios magnéticos. CD-RW (Disco Compacto Reescribible) Los discos CD-RW son una evolución de los CD-R, la diferencia principal entre ambos consiste en el cambio de la capa de material fotosensible por otra, realizada a partir de un compuesto químico de características especiales es por esto que los discos CD-RW emplean un láser con una frecuencia distinta a la que se utiliza en los discos CD-ROM y CD-R , las características ópticas del compuesto empleado en los discos CD-RW hacen que sea necesario emplear un láser con una frecuencia especifica para poder leer la información almacenada. Por ello, los discos CD-RW son incompatibles con la mayoría de lectores de CDs existentes. Sin embargo algunos 26
lectores de CD-ROM pueden leer datos de discos CD-RW, ya que incorporan un cabezal que opera con el haz del láser a dos frecuencias esta característica se conoce multiread (multilectura) DVD (Disco de Vídeo Digital) Este no es más que un nuevo intento para unificar todos los estándares óptico-digitales de almacenamiento, es decir, cualquier sistema de grabación que almacene imágenes ó sonido. DVD abarca todos los campos actualmente existentes, por lo que, si llega a implantarse un mismo disco DVD podrá utilizarse para almacenar películas, música, datos informáticos, e incluso los juegos. La gran ventaja del DVD, en relación a los dispositivos de almacenamiento actuales, es su mayor velocidad de lectura hasta 4 veces más que los reproductores de CD tradicionales y su gran capacidad de almacenamiento, que varía entre los 4.7 y los 17 Gigas, es decir el tamaño aproximadamente de 25 CdROM. A pesar de todo, como cualquier tecnología nueva, no está exenta de problemas ya que existen ciertas incompatibilidades con ciertos estándares, pero es muy pronto para predecir el impacto que las siglas mágicas DVD provocarán en nuestras vidas. Pero, si las previsiones de sus creadores se cumplen, dentro de dos ó tres años no existirán probablemente los televisores, altavoces, videos, láserdiscs, cadenas musicales, consolas, tarjetas gráficas ó lectores de CD-ROM, tal como hoy los conocemos. Diferencias entre CD y DVD Gracias a la incorporación de un láser rojo, con una longitud de onda menor que el de un CD, un lector DVD puede diferenciar 27
marcas de un tamaño menor que las de un CD. Esto permite aumentar el número de marcas que constituyen los datos almacenados en el disco, sin que puedan apreciarse diferencias importantes entre un CD y un DVD. Para diferencias un CD de un DVD, basta con comprobar la cobertura reflectante del anillo interior que rodea el eje que tienen los DVD. El futuro del almacenamiento: La incesante evolución de las tecnologías de almacenamiento apuntan a la aparición en los próximos años de nuevos sistemas, basados en principios totalmente diferentes a los actuales. Una de las posibilidades más claras es la propuesta de Fujitsu y algunas otras compañías, con el estudio físico para el desarrollo de nuevos tipos de memoria, denominados QDWMM (memoria multiplexada de longitudes de onda de puntos cuánticos). En ellos se usan múltiples longitudes de onda de luz (colores) para almacenar la información a escala atómica, permitiendo alcanzar teóricamente cifras del orden de 8.000 GB (aproximadamente, el equivalente a 500 DVDs de doble cara y densidad) en una superficie similar a la de un sello de correos. Además, este es un sistema que permitirá efectuar lecturas y escrituras de la información a velocidades muy elevadas.
1.4. DISPOSITIVOS DE PROCESAMIENTO LA UNIDAD CENTRAL DE PROCESO (UCP O CPU). CPU Es el elemento principal de la computadora y su misión consiste en coordinar, controlar y realizar todas las operaciones del sistema. Es el “ Cerebr o” o” de la Computadora, la que interpreta y ejecuta las instrucciones. En su forma general, la unidad central de proceso de una microcomputadora incluye los elementos básicos como son:
28
La tarjeta principal (Motherboard), en la que se localiza el microprocesador y los diferentes tipos de memoria. Una fuente de poder. Un gabinete y Un pequeño altavoz. Es en esta parte del sistema de cómputo donde se lleva a cabo todo el proceso informático, desde la recepción y el proceso de los datos que llegan a través de los periféricos de entrada, hasta la entrega de los resultados visuales, escritos o sonoros por medio del monitor, impresora, altavoces. La Tarjeta Principal: La tarjeta principal de una computadora es un tablero de circuitos impresos de varias capas en el cual están montados los diferentes componentes electrónicos y los conectores sobre los cuales se realiza el flujo y el proceso de información. Esto se realiza de acuerdo a los programas del sistema operativo y de las aplicaciones genéricas como los procesadores de palabras etc. En ella encontramos las partes electromecánicas como los conectores para la alimentación desde la fuente de poder, las ranuras de expansión o slots que se utilizan para instalar las tarjetas de los periféricos (equipos ( equipos adicionales externos). En esta tarjeta, se incluye la memoria CMOS (Semiconductor de óxido metálico complementario) que contiene elementos semiconductores de muy bajo consumo de energía, por lo que se le utiliza para mantener, mediante una minúscula batería, los registros de fecha, hora y dispositivos instalados, sin que se pierdan cada vez que se apaga la computadora. Así como también cuenta con las ranuras para la memoria RAM y los circuitos electrónicos integrados de procesamiento,
29
control y la Unidad Aritmético - Lógica, como son el microprocesador etc. Buses: Para poder emplear un dispositivo cualquiera (de entrada, salida o memoria) la CPU debe realizar dos operaciones: primero, seleccionar el dispositivo y, a continuación, enviar o leer el dato que interesa. Necesitamos disponer, por tanto, de dos canales; uno, para elegir el dispositivo al que queremos acceder, el otro, para enviar los datos. A los canales por lo que la CPU puede trabajar con el exterior se les denomina genéricamente con el termino “buses”, ya q ue actúan como autobuses que transportan información de la CPU a su destino dentro del ordenador
La CPU emplea una serie de dispositivos externos, a los que se conecta a través
de
canales
denominados “buses”
El bus de direcciones es el encargado de seleccionar la dirección (de ahí su nombre) del dispositivo que se desea utilizar. Este dispositivo suele ser la memoria, y el bus de direcciones transporta la dirección de la misma a la que la CPU desea acceder. La información propiamente dicha se transporta por otro canal, al que se denomina “bus “ bus de datos”
30
La CPU necesita tanto enviar como recibir datos del exterior. Por ello emplea el bus de datos, compuesto generalmente de 8, 16 o 32 pistas, una por cada bit. Este bus es por tanto bidireccional ya que por el entran las instrucciones que debe ejecutar la CPU procedentes de la memoria y los demás dispositivos con que se comunica y salen las instrucciones y datos que la CPU envía a dichos dispositivos. El bus de datos debe estar adaptado a la longitud de la palabra que es capaz de manejar la CPU. Esto quiere decir que si la CPU puede realizar operaciones con números binario de 16 bits el bus de datos deberá tener 16 vías. También es posible que el bus sea de menor tamaño. De este modo se pueden transferir palabras de, por ejemplo, 16 bits a través de un bus de datos de 8 bits realizando dos operaciones sucesivas de transmisión de datos. Los tamaños de los buses se miden por el número de bits que pueden circular por ellos, y son un buen indicador de la eficacia de la CPU. El termino “CPU de 8 bits” indica que se trata de una CPU con un bus de datos de 8 bits; hay buses de datos para todos los gustos, desde 4 hasta 64 bits, y algunos mayores. El bus de direcciones es mayor, ya que debe permitir el acceso a una gran cantidad de direcciones diferentes. Suele ser común que su tamaño sea el e l doble del de datos. La Unidad de Control: Se podría decir que es el autentico director de la orquesta de la computadora. Como tal, su función consiste en que la partitura (el programa) sea ejecutado correctamente por el resto de los componentes de la computadora, es decir, que cada uno de ellos realice su tarea en el momento preciso.
31
Las funciones principales de la unidad de control son: 1. Extraer de la memoria la instrucción del programa que corresponda ejecutar en un instante determinado. 2. Decodificar e interpretar la instrucción del programa, determinando cuales son las operaciones que conlleva la ejecución de la instrucción. 3. generar las ordenes necesarias para la ejecución, en forma de señales eléctricas que activaran la memoria, la ALU o las unidades de entrada-salida. A su vez la unidad de control se compone de los siguientes elementos básicos. •
Contador de programa: Es un registro, es decir una “casilla” de memoria independiente que almacena la posición en memoria de la próxima instrucción del programa que se va a ejecutar.
•
Registro de instrucción: Es donde se almacena la instrucción que ha sido extraída de la memoria.
•
Decodificador: Este circuito recibe el dato del registro del registro de instrucción, con lo que averigua de qué
32
instrucción se trata y determina cuales son las órdenes que lleva aparejada la ejecución de esa instrucción. •
Multiplexor: Recibe la información del decodificador y envía las ordenes al resto de los componentes del CPU y a la memoria para ejecutar la instrucción.
Unidad aritmética-lógica: Se trata de un circuito que se limita a efectuar ciertas operaciones, controlada por un conjunto de órdenes. En esencia funciona como una calculadora, con líneas de entrada para las operaciones, una línea de salida para el resultado y una entrada de control en la que se especifica la operación que se debe realizar. Las líneas de entrada de datos disponen de tantos bits como la máxima longitud de los operandos que pueda manejar la CPU. En la actualidad todas las ALU funcionan mediante el procesamiento en paralelo de los datos, mucho más rápido que en serie, si bien se necesitan tantas líneas como bits tengan las operaciones La ALU realiza tres tipos de operaciones básicas: • Operaciones aritméticas: sumas, restas,
multiplicaciones.
•
Operaciones lógicas: ejecuta operaciones lógicas como AND, OR, NOT, XOR, etc.
•
Operaciones de desplazamiento: Estas operaciones desplazan a la derecha o a la izquierda los bits de un número binario añadiendo ceros, lo cual es la base de operaciones más complejas. Por ejemplo, el resultado de desplazar 0011010 un bit hacia la izquierda es 0110100
33
Todas las computadoras tienen un ciclo de máquina durante éste tiene lugar los siguientes pasos: 1. Instrucciones a traer = se obtiene o se trae de la RAM ó la memoria caché y se carga el registro en la Unidad de Control 2. Instrucción se decodifica 3. Instrucción a ejecutar 4. Se sitúa el resultado en la memoria. Los resultados se colocan en la posición apropiada de la memoria (En la RAM ó en 1 registro de la ALU llamado Acumulador.) Memoria Principal La CPU seria de poca utilidad sin un sistema de almacenamiento en que se encuentren las instrucciones y los datos necesarios para desempeñar cada tarea. El termino memoria se refiere tanto a la memoria principal de la computadora, contenida físicamente en los distintos circuitos integrados, como a las memorias auxiliares tales como las unidades de disco. La información de las memorias auxiliares, no obstante, debe ser trasladada previamente a la memoria principal para que la computadora pueda interpretarla. La memoria principal puede considerarse de forma intuitiva como un conjunto de casillas numeradas, cada una de ellas pudiendo contener un dato binario. La memoria en su conjunto dispone de 2 canales de comunicación con el exterior, el bus de datos y el bus de direcciones. El funcionamiento de la memoria es el siguiente: En primer lugar se introduce en el bus de direcciones el número de la posición de memoria, es decir la “casilla” a la que
se quiere acceder, en el bus de direcciones. A continuación se suministra a la memoria una orden de lectura o de escritura 34
según se desee introducir algo en la dirección de memoria indicada o extraer un dato de esta dirección a través del bus de control. Con esto se enviara o se recibirá por el bus de datos el número binario correspondiente. Existen dos tipos básicos de memoria en el interior de la computadora, la memoria RAM y ROM, cada una de ellas con funciones específicas sin embargo creo que es conveniente conocer algunos de los diversos tipos de memorias que puede manejar la computadora. RAM: Memoria de Acceso Aleatorio: A diferencia de los dispositivos magnéticos de almacenamiento secundario, como cinta, disco, a RAM no tiene partes móviles está al no tener un movimiento mecánico, se puede tener acceso a los datos de la RAM a velocidades electrónicas o velocidad de la luz. La mayor parte de las computadoras actuales usan tecnología CMOS (Semiconductor de óxido metálico complementario) para la RAM, no obstante el almacenamiento del semiconductor presenta un problema fundamental y es que es una memoria volátil y cuando se va la luz se pierden los datos. Los investigadores están trabajando en perfeccionar una tecnología de RAM que conserve su contenido después de una interrupción de energía. Actualmente han surgido muchas tecnologías de Memoria no volátil como la Memoria burbuja. En ciertas computadoras la memoria burbuja supera al CMOS, es muy confiable, no es susceptible a las variaciones ambientales y puede operar en un tiempo considerable con batería. Este tipo de memoria es ideal para usarse en robots industriales y computadoras portátiles. Una variación de ésta es otra ampliamente disponible, pero poco utilizada la memoria flash o relámpago puede almacenar varios MB en una tarjeta, podría reemplazar por completo a los discos duros y flexibles, combinando las funciones de la RAM 35
interna y el almacenamiento a largo plazo dentro de un dispositivo único. Se usa en laptop y notebook (PC portátiles). Uno de los aspectos más emocionantes de la Ram Flash o memoria flash es que su memoria no es volátil. Por un lado significa que no tendrás que salvar tu trabajo cuando termines de usar tu computadora, solo tendrás que apagarla. Cuando vuelvas a encenderla, comenzará exactamente donde la apagaste con los programas corriendo, las ventanas perfectamente alineadas y los archivos abiertos exactamente como lo dejaste. ROM (read-only-memory) Memoria de solo lectura: Este tipo de memoria no pude ser alterada por el programador. El contenido de la ROM fue diseñado por el fabricante con una protección especial para que únicamente pueda ser leído. Se utiliza en aquellos sistemas donde los datos son siempre los mismos durante las veces que se tenga acceso a la memoria. Los circuitos de memoria ROM de las computadoras suelen venir en forma de DIP (encapsulado en doble línea, es una forma rectangular con 8 pines a cada lado formando 16 pines y se inserta directamente a la tarjeta madre). En las computadoras, la BIOS( Sistema básico de entradas y salidas) viene almacenado en memorias ROM, pero también se utilizan las EPROM. Este circuito (ROM-BIOS) viene incluido en las tarjetas principales y el programa que trae grabado tiene como función el reconocimiento y prueba de los diversos circuitos y dispositivos de la computadora en el momento del encendido, así como durante la ejecución de los diferentes programas de computo. Cuando se enciende una micro, automáticamente se ejecutan varias rutinas que permiten ponerla en marcha y revisar la fiabilidad del sistema. Estas pruebas corresponden a 36
pequeños programas grabados en la memoria ROM-BIOS, cuyas tareas específicas son las siguientes: Se
encarga de despertar a la computadora. Esta rutina le indica al CPU los elementos periféricos que tiene conectados, y la comunicación con ellos mientras este encendida la computadora. Comprobación de los elementos de hardware declarado en el sistema estén listos para trabajar (rutinas POST entre las incluyen la comprobación del CMOS Setup (configuración) y dependiendo del tipo de RAM usada en la máquina, verificación de la paridad de memoria) Permitir al micropocesador mantener la comunicación con los periféricos Actúan como interfase entre la máquina y el sistema operativo y a través de este último, con los programas de aplicación. Una variación de la ROM es la: PROM (Memoria de solo lectura Programable). La PROM es una ROM en la que podemos poner como usuarios programas y datos de solo lectura. Existen en el mercado algunos paquetes de software para micros, como hojas de cálculo, que se fabrican en unidades de PROM ó en disquetes, una vez que un programa se carga en la PROM rara vez se modifica básicamente la PROM proporciona una flexibilidad y una conveniencia que no ofrece la ROM. Las PROM proporcionan una alternativa más rápida y mucho menos costosa, ya que el usuario puede programarla directamente pero por única vez.
37
EPROM (Memoria de solo lectura, programable y borrable) Otro tipo de memoria ROM que permite que los datos almacenados se borren para cargar nuevos datos se conoce como EPROM. Este tipo de memoria proporciona considerable flexibilidad durante el desarrollo de sistemas digitales, ya que la EPROM es capaz de retener información almacenada durante largos períodos, aproximadamente 1 año ó más, por lo que puede utilizarse mientras se desarrolla un software, así es más fácil implantar modificaciones y actualizaciones. El contenido de una EPROM puede borrarse exponiendo el Chip a la luz ultravioleta lo cual eliminará toda la información de la memoria, ó bien aplicando un alto voltaje solo borra de manera parcial la información. Existe otro tipo de memoria importante que es la: Memoria Cache: Esta es similar a la RAM excepto que es extremadamente rápida comparada con la memoria RAM y se usa en forma diferente. Cuando un programa está en ejecución y la CPU necesita leer datos de la RAM, verifica primero si los datos están en la caché, si no está ahí continua y lee los dato de la RAM y los lleva a sus registros, pero también carga estos en la caché al mismo tiempo. La siguiente vez que la CPU necesita estos datos, los encuentra en la Caché y hay ahorro de tiempo. Al igual que la RAM es un área de almacenamiento de alta velocidad para las instrucciones de los programas y datos, la memoria Caché usa una tecnología que es alrededor de 10 veces mas veloz que la RAM y 100 veces más costosa, Debido a su alto costo, las computadoras solamente poseen pequeñas cantidades de memoria caché instalada en su unidad central comparada con la cantidad de RAM
38
Caché L1 de algunos procesadores: Cuando la memoria caché esta ubicada dentro del microprocesador se denomina esta caché L1 Si la memoria caché es externa al encapsulado del microprocesador, se denomina caché L2 (nivel 2) En algunos sistemas, la memoria caché L2 se ha construido directamente dentro del microprocesador. Esto hace que la tarjeta principal sea de menor costo ya que no necesita espacio adicional para la instalación de dicha memoria. Memoria Virtual: Es una adición o mejor dicho es un RAM imaginaria, ya que cuando una RAM esta llena, no puede ejecutar más programas hasta que este disponible una parte de esta. La memoria virtual aumenta de manera efectiva la capacidad de la RAM mediante el uso de software y almacenamiento secundario. Esto permite que en determinado momento, residan más datos y programas en la RAM. El principio de la Memoria Virtual es muy sencillo un programa se ejecuta de manera secuencial. (Una instrucción después de otra) los programas se segmentan por páginas de modo que solo la porción del programa que se ejecuta (una o más páginas) residen en la RAM. El resto del programa está en el almacenamiento en disco. Las páginas apropiadas se transfieren (se mueven a la RAM) desde el almacenamiento en disco conforme se necesitan para continuar la ejecución del programa. Memoria Flash Introducción a la memoria flash (a veces llamada flash ROM o flash RAM). La memoria flash permanece estrechamente relacionada a la EEPROM, pero una de sus ventajas más importantes, es que no requiere un mayor voltaje, que aquellas que
39
normalmente están disponibles en computadoras y cámaras digitales (típicamente 3 a 5 voltios). Cómo todas las memorias tipo ROM, la memoria flash, está limitada a un número finito de ciclos de escritura y borrado. Al principio estos ciclos eran unos pocos, pero ahora, algunas memorias más nuevas, los ciclos llegan hasta un millón o más. La memoria flash se ha vuelto algo básico para los chips BIOS, porque hacen fácil actualizarlo para los usuarios. Es posible borrar y también escribir en algunas áreas seleccionadas del chip, pero algunas pueden protegerse no permitiendo el acceso a ellas. Estos rasgos hacen a la memoria flash atractiva para dispositivos portátiles como PDAS y cámaras digitales, donde los usuarios puede querer alterar algunas áreas y dejar otras áreas intactas. Algunos de estos dispositivos tienen instalado una unidad de 3.5 pulgadas normalmente disco blando para trasladar lo almacenado, pero este dispositivo mecánico es grande, requiere más cantidad de energía (llevando a la batería a tener una vida más corta), y tiene una capacidad limitada. Por el contrario, Sony tiene la Memoria Stick, que es más rápida, tiene menos consumo, y su almacenamiento puede elevarse a 32MB (más de 20 discos blandos). La memoria flash tiene varias ventajas sobre estos dispositivos de almacenamiento mecánico, o magnético. Puede fabricarse en paquetes que son significativamente más pequeños. Y ellos son transistorizados: No hay ninguna parte movible que se pueda dañar. Una tarjeta de memoria flash puede servir fácilmente como el medio del almacenamiento trasladable para un dispositivo portátil. La parte más difícil está en la transferencia de los datos a una computadora de escritorio. Para sistemas de escritorio que no tengan slots para estas tarjetas, hay adaptadores de lectura en paralelo, SCSI, o puertos de USB. 40
Algunos de estos incluso soportan memoria flash en múltiples formatos. Una desventaja es que no hay ninguna norma uniforme para la aplicación de memoria flash en los dispositivos portátiles. Diferentes tarjetas están compitiendo para volverse a la norma actualmente.
1.5. DISPOSITIVOS DE ENTRADA/SALIDA. Periféricos de Entrada También llamados dispositivos ó elementos de entrada, son los encargados de introducir los datos y los programas desde el exterior a la memoria principal. Describiremos algunos de ellos: El teclado. Es el principal periférico de entrada y control por medio del teclado puede introducir datos y dar comandos. Los teclados para PC vienen en varios estilos los diferentes modelos pueden variar en tamaño y forma, pero fuera de eso los teclados están distribuidas en forma idéntica. Tiene 101 teclas arregladas en 4 grupos, los 2 primeros: el teclado alfanumérico y numérico (alfanumérico igual que la máquina de escribir), el numérico generalmente localizado a la derecha del teclado parece una máquina sumadora y operadores matemáticos.- Las otras 2 partes son: teclas de función “F”. (F1-F12) y teclas de movimientos.
Ratón o Mouse. A principio de los 80s, el único periférico de entrada que había era el teclado. Hoy sin embargo es uno de los periféricos de entrada mas extendidos como alternativa al teclado. Aunque el ratón puede funcionar en entornos basado en caracteres, su aplicación básica se centra en los 41
entornos de usuario basados en sistemas gráficos como el Windows de Microsoft. Su funcionamiento se basa en la selección de un icono o menú por medio del puntero o cursor y su activación mediante la pulsación de uno de los botones o teclas del ratón. Cabe destacar que hay ratones con 3 de estos pulsadores y otros con dos.
El trackball o ratón estacionario. Es un periférico para apuntar que trabaja como un ratón boca arriba. Recarga tu pulgar sobre la bola expuesta y tus dedos sobre los botones. Para mover el ratón giras la bola con tu pulgar. Este dispositivo requiere de poco espacio porque no lo mueves. Este es usado en computadoras Notebook y en algunas ya viene integrado al equipo.
Escritura a base de Plumas.
Son tecnologías nuevas y promisorias para la entrada de datos, en especial para personas que trabajan en las áreas de servicio o ventas o para aquellos que siempre han odiado los teclados de computadoras. Estos dispositivos basados en la pluma normalmente consisten en una pantalla plana en forma de tableta y un “señalador” en forma de pluma con la cual los usuarios imprimen directamente en una pantalla del tamaño de una tablilla.
Pantallas sensibles al tacto.
Las pantallas sensibles al tacto son apropiadas en ambientes donde la tierra o el clima harían imposible el uso de teclados y dispositivos para señalar. Desafortunadamente esto también quiere decir, que las personas no pueden tomar ventajas de sus habilidades para teclear y poder meter grandes cantidades de información, así que éstas son mejores para aplicaciones 42
sencillas, como cajas automáticas o estaciones de información pública. Estas pantallas cada día son más comunes en tiendas departamentales, farmacias, supermercados, incluso en maquinas para apostar en casinos, aeropuertos, bibliotecas. Permiten que el usuario seleccione las operaciones disponibles con solo tocar con el dedo al icono o concepto del menú deseado. Son considerados como periférico de entrada y salida. Lectores
de código de barras.
Es el periférico de entrada mas usado después del ratón o teclado es hallado en supermercados, tiendas departamentales, farmacias. Estos dispositivos convierten un patrón de barras impresas en los productos, mediante la emisión de un rayo de luz, (láser) que se refleja en la imagen del Código de Barras. Un detector sensible a la luz identifica la imagen del código, una vez identificado el código convierte los patrones de barra individual en números digitales alimenta ese número a la computadora tal como si se hubiera teclado y en algunos casos también puede actualizar los registros del inventario.
Dispositivos de alimentación de voz. Transforman la palabra hablada en una forma digital. El software de reconocimiento de voz compara los patrones eléctricos producidos por la voz del interlocutor en un conjunto de patrones pregrabados. Si los patrones concuerdan, la entrada se acepta. La
mayoría
de
los
sistemas
de
voz
aun
tienen
“vocabularios” limitados de diversos cientos a diversos
miles de palabras, y solo pueden aceptar instrucciones muy sencillas. 43
Digitalizadores (scanners) Un escáner es un periférico de entrada que permite capturar imágenes digitalizando la información grafica que las forma. Los escáneres se diferencian entre si por la resolución máxima y el numero de colores o escalas de grises que pueden soportar. Utilizando los programas adecuados, los escáneres pueden leer la información escrita convirtiendo la misma a archivos utilizables por un procesador de textos. Estos programas se denominan de OCR (Reconocimiento Óptico de Caracteres). Los escáneres actuales son capaces de convertir las imágenes a los formatos gráficos más comunes y utilizados Reconocimiento óptico de caracteres (OCR) Se utilizan máquinas ópticas sensibles a la luz (dispositivos de entrada especializados), que permiten reconocer caracteres impresos convirtiéndolos a señales eléctricas, por medio de un software especial.
Este tipo de tecnología OCR ha avanzado mucho y hay una gran variedad de ella, actualmente los bancos utilizan con bastante éxito una variación de esta que se le llama Reconocimiento de Caracteres de Tinta Magnética, por ejemplo en cheques y en tarjetas de plástico. En las tarjetas se agrega información referente al número de cuenta y límite de crédito del cliente codificado magnéticamente en una franja de cinta al reverso de la tarjeta, cuando se inserta la tarjeta en el cajero automático la Terminal lee y trasmite los datos de la cinta a un procesador que activa la cuenta del cliente. PERIFÉRICOS DE SALIDA
44
Los periféricos de salida son los que permiten presentar la información de forma que se pueda entender directamente por el hombre o pueda ser utilizada por otro sistema. Veamos con detalle algunos de ellos:
Monitor Los monitores quizá los mas importantes debido a que son los dispositivos de salida con lo que mas trabaja la gente. Los monitores se definen por tres características: 1. Tamaño (dimensión diagonal de la pantalla) 2. Resolución (detalle de la imagen) y 3. Monocromático ó a Colores Tamaño .
El tamaño de las pantallas varía entre 5” y 29”
(la
dimensión diagonal). Resolución.
La resolución se refiere al número de puntos definibles en la pantalla, el número de puntos a los que se puede dirigir luz por medio del control del programa. Estos puntos se conocen como Píxeles (elementos de imagen). Un monitor de baja resolución tiene alrededor de 64,000 (320 X 200) puntos definibles. Un monitor que se usa para gráficas ó el diseño asistido por computadoras puede llegar a tener más de 16 millones de puntos definibles. Los monitores de alta resolución proyectan 45
imágenes muy claras y que tienen una apariencia similar a la de una fotografía. Monocromáticos ó a Color. Los monitores monocromáticos proyectan imágenes en un solo color, por lo general en blanco, verde, azul, rojo ó ámbar. Sin embargo puede presentar sombras de un solo color, se utiliza el término escala de grises para referirse al número de sombras de un color que se pueden proyectar en el monitor. Los monitores a color suman otra dimensión a los despliegues, la mayorías de los monitores a colores combinan el rojo, verde y el azul para lograr un espectro de colores. Cada uno se implementa instalando una tarjeta de expansión y conectándola al monitor apropiado. A continuación se presentan los monitores más populares: VGA:
Matriz gráfica de vídeo
SVGA: Súper matriz gráfica de vídeo XGA:
Matriz de gráficas ampliada
CGA:
Adaptador gráfico de vídeo (obsoleto)
EGA:
Adaptador mejorado de gráfico (obsoleto)
Entre mas colores pueden desplegar un monitor mas memoria necesita. Un monitor de 256 colores requiere 1 byte de memoria para definir cada píxel. Impresoras
46
La salida visualizada en un monitor es inmediata pero temporal. Una impresora permite obtener una copia física ó dura en papel, de cualquier información que pueda aparecer en la pantalla. Hay muchas variedades de impresoras pero todas corresponden a 2 grupos básicos: impresoras de impacto e impresoras de no impacto Impresoras de Impacto. Dentro de estas se encuentran las impresoras de línea y matriz de puntos. Las impresoras de este tipo comparten una misma característica que forman las imágenes golpeando un martillo contra una cinta y papel como lo hace una máquina de escribir. Impresoras de líneas: son aquellas con que las macrocomputadoras producen grandes listados; estas máquinas rápidas y ruidosas imprimen cientos de líneas de texto por segundo. Se usan principalmente en los entornos de procesamiento de las minis y macros para realizar trabajo pesado y generar grandes volúmenes de salida. Su velocidad de impresión se miden en LPM (líneas por minuto) estas impresoras llegan a imprimir desde 1000 a 5000 líneas por minuto. Impresoras de matriz de punto ó de serie: Esta ordena puntos impresos para formar caracteres y todo tipo de imágenes de manera muy similar a las luces que presentan la hora y la temperatura en los tableros electrónicos de los bancos, la calidad de salida impresa es directamente proporcional a la densidad de los puntos de la matriz. Las impresoras de 18 y 24 cabezas ó agujas crean caracteres más sólidos y se usan para la salida del procesamiento de datos. La velocidad de impresión se mide en CPS (caracteres por segundo) este tipo de impresoras pueden llegar a imprimir desde 40 hasta 450 caracteres por segundo. Impresoras de NO impacto: 47
Las impresoras de no impacto ó también llamadas impresoras de páginas utilizan una variedad de tecnologías para lograr una salida de copia dura de alta calidad y velocidad imprimiendo una página a la vez. Impresoras de chorro de tinta: Este tipo de impresoras utilizan varias cámaras de inyección controladas de manera independiente para inyectar pequeñas gotas de tinta sobre el papel. Las pequeñas gotas de tinta van formando imágenes ó caracteres las cuales se secan inmediatamente. Este tipo de impresoras son mas lentas de las impresoras láser se encuentran en el punto intermedio de las matriz de punto y láser. Impresoras láser: Estas impresoras son más caras pero más rápidas y silenciosas. Este tipo de impresoras utilizan un mecanismo de impresión xerográfico, con fuente de luz producida por un layo láser, éste carga electrónicamente una superficie fotoconductora a la que se le adhiere un polvo especial (toner) que al fundirse por la aplicación de calor conforma los caracteres especiales. La calidad y velocidad de las láser las hacen ideales para ambientes de oficina ya que varios usuarios pueden usar fácilmente la misma impresora esta puede usar papel Standard de bajo costo, en contraste con la máquina de impresión de matriz de punto que usan papel continuo. Graficadores o plotters: Están diseños para producir grandes dibujos o imágenes, como planos de construcción para edificios o heliográficas de objetos mecánicos. El graficador usa un brazo automatizado para dibujar con plumas de colores sobre hojas de papel. Las instrucciones que recibe de una computadora consisten de un color y las coordenadas del principio y fin de una línea. Dispositivos de salida de voz
48
Transforma datos digitales de salida en palabras inteligibles. Los sonidos son prerregistrados, codificados y almacenados en un disco, para ser traducidos en palabras orales. Por ejemplo, cuando se pide información por teléfono, es posible oír la “voz” de la computad ora respondiendo al número telefónico que se solicitó. DISPOSITIVOS DE ENTRADA/SALIDA Son dispositivos mixtos que permiten, tanto la entrada como la salida de datos, desde o hacia el microprocesador. A esta categoría pertenecen especialmente los dispositivos de almacenamiento de datos como: las unidades de disco flexibles, las unidades de disco duro, las unidades de cintas, los disco ópticos magnético-ópticos y los CD-RW (regrabables). Módem Las computadoras emplean únicamente señales digitales. Sin embargo, la línea telefónica es un medio de transmisión de señales analógicas. La red telefónica esta diseñada para transportar la voz humana en forma de onda analógica, pero no puede transmitir las señales digitales tal y como las maneja la computadora. Por ello, para poder ser transportadas, éstas deben ser convertidas, en primer lugar, en señales analógicas. Esta conversión se denomina “modulación” mientras que la reconversión de esas señales digitales al otro extremo de la línea se llama “demodulación”. El dispositivo capaz de efectuar estas conversiones es el módem, nombre procedente de los términos MOdulador/DEModulador. Los módems pueden ser internos o externos y se diferencian básicamente en la velocidad máxima a la que pueden enviar/recibir la información. La velocidad se mide en baudios –es decir bits por segundo-. 49
1.6. TIPOS DE COMPUTADORAS Y SUS DISPOSITIVOS. Clasificación de las Computadoras
Aunque el período de desarrollo de las computadoras en esta era de la información ha sido muy corto, se han hecho otras clasificaciones de estas, de acuerdo a su tamaño, poder de cómputo, capacidad de memoria y almacenamiento. Sin embargo, este rápido ritmo de cambios tecnológicos altera los esquemas de clasificación. En la actualidad estas diferencias han pasado a segundo termino debido a los grandes avances de la tecnología informática, que permite ofrecer cada vez con menos tiempo de por medio, computadoras de menor tamaño, con una mayor velocidad y poder de proceso de datos. Independientemente del tamaño o la forma, todas las computadoras en uso tienen cuatro componentes básicos: procesamiento, almacenamiento, elementos de entrada y salida. Existen muchas formas de clasificar a la computadora, sin embargo se puede decir que son por su aplicación, configuración y capacidad.
50
Clasificación por su aplicación. En el cual tenemos 2 tipos de computadoras que son:
De propósito específico. Son aquellas computadoras que son diseñadas para alguna aplicación en especial. Ejemplo como las que se usan en simuladores de vuelo, apoyo a diseños arquitectónicos, controles, industriales, autos para el control de combustible, ignición, frenado, etc. De propósito general. En este caso se tratan de las computadoras que pueden ser programadas para resolver una gran variedad de problemas. La mayoría de las computadoras actuales son de propósito general. Clasificación por su configuración.
Computadoras analógicas. Su denominación tiene su origen en el vocablo griego “análogos” que puede traducirse como “relación exacta”
Esta procesa datos de tipo continuo , lo hace con variables que están medidas en una escala continua y son registrados con un determinado grado de precisión. Estas son imprecisas quizás en un 0.1% del valor correcto. La precisión de los datos usados en una computadora analógica está íntimamente ligada a la precisión con que pueden medirse.
Es decir, una computadora analógica es en sí un dispositivo de medida. Como los datos analógicos se adquieren a través de un proceso de medida, las computadoras analógicas tienen la ventaja de poder aceptar directamente los datos a partir de instrumentos de medición sin necesidad de alguna conversión o codificación Su programación en la mayoría de los casos está en su cableado y se utiliza fundamentalmente para controlar los procesos y en determinados problemas de simulación, no tiene almacenamiento ya que las respuestas a los problemas se leen en gráficos de tubos 51
de rayos catódicos. Tienen gran velocidad de cálculo, y son aptas como dispositivos de control de procesos industriales. Ejemplo: Una bomba de gasolina tiene un procesador analógico y bombea la gasolina según el precio de la gasolina y la cantidad a vender. Datos continuos: Son los que se obtienen a partir de un aparato de medición como termómetro, kilómetro, básculas, manómetros.
Computadoras digitales Su denominación se basa en la palabra latina “digitus” (dedo).
Se caracteriza por procesar datos discretos. La mayoría de las computadoras de propósito general son digitales. Las computadoras digitales representan los datos o unidades separadas. La forma más simple de computadora digital es contar con los dedos. Cada dedo representa una unidad del artículo que se está contando. A diferencia de la computadora analógica, limitada por la precisión de las mediciones que pueden realizarse, la computadora digital puede representar correctamente los datos con tantas posiciones y números que se requieran. Las sumadoras y las calculadoras de bolsillo son ejemplos comunes de dispositivos construidos según los principios de la Computadora Digital. Para obtener resultados, las computadoras analógicas miden , mientras que las computadoras digitales cuentan. . En la actualidad el 95% de las computadoras son de este tipo. Datos discretos : Son aquellos que están
compuestos por unidades bien definidas como números, letras, símbolos especiales, etc. Computadoras híbridas Combinan las características más favorables de las computadoras digitales y analógicas tienen la velocidad de las analógicas y la precisión de las digitales, para lo cual tiene sus entradas y salidas
52
controladas por medio de convertidores. Analógico - digital ó digital - analógico. Esto quiere decir que reciben datos provenientes de mediciones y mediante un dispositivo electrónico interno, dichos datos se transforman en valores discretos. Ejemplo: Pueden ser las básculas electrónicas, que en si es una computadora de uso específico que obtiene datos a través del hecho de pesar el producto que se coloca en ella y proporciona el importe a cobrar dado el costo por kilogramo. En hospitales miden la función cardiaca de los pacientes. Las Computadoras Híbridas controlan el radar de la defensa de Estados Unidos y de los vuelos comerciales. En síntesis podemos establecer que las computadoras analógicas e híbridas se utilizan en muchas de las aplicaciones especiales y las digitales tienen aplicaciones generales utilizándose en áreas científicas, comerciales, administrativas, etc. Clasificación por su Capacidad ó tamaño Existe una gran variedad en el tamaño, el costo y el desempeño de los sistemas de cómputo. La tecnología está cambiando tan rápidamente, que pocos meses después de que ha salido al mercado un nuevo modelo, nos enfrentamos con dos sucesores potenciales; uno que cuesta lo mismo y tiene mucho mejor funcionamiento, y el otro tiene el mismo desempeño y cuesta menos.
Supercomputadora Es la computadora más potente disponible en un momento dado. Estas máquinas están construidas para procesar enormes cantidades de información en forma rápida que puede ser 10 veces mayor que la macrocomputadora. Y pueden costar entre 10 y 30 millones de dólares. Su velocidad se mide en FLOPS (operaciones de punto flotante por segundo) y GIGAFLOPS (mil millones de flops). Una supercomputadora puede llegar a tener mas de 5 Gigabytes en memoria RAM, y una capacidad de almacenamiento 53
en disco duro 10, 20 ó 30 terabytes (mil gigabytes) y maneja millones de peticiones simultáneas de acceso a la información. Contienen múltiples microprocesadores, hasta miles de ellos, trabajando en forma paralela para aumentar su eficiencia. Por su diseño, fueron creadas para servir al mismo tiempo a muchos usuarios. Algunas aplicaciones Supercomputadora:
representativas
de
la
Analizan y ordenan gran cantidad de datos sísmicos que se recopilan durante las explosiones en busca de yacimientos petrolíferos. Permite simulación de una corriente de aire alrededor de un avión a diferentes velocidades y altitudes. Estudia los resultados de explosiones de armas nucleares. Estudian la formación de tornados. Estudio de las olas, corrientes y temperaturas del océano para vaticinar condiciones meteorológicas Estudios de producción de Hollywood, usan gráficos avanzados para crear efectos especiales para películas y comerciales de TV. Todas estas aplicaciones macrocomputadoras.
son
imposibles
en
las
Macrocomputadora o Mainframes Es la computadora de mayor tamaño en uso común. Están diseñadas para manejar grandes volúmenes de entrada/salida y almacenamiento. También llamadas Mainframe generalmente cuestan desde $200,000 hasta varios millones de dólares. Era usual que éstas ocuparan cuartos completos o incluso pisos enteros de edificios, usaban aire acondicionado para mantener la temperatura baja y usar pisos falsos para ocultar los cables de conexión de la máquina.
54
Hoy en día una macro común se ve como una hilera sencilla de grandes archiveros aunque todavía requiere de un ambiente controlado. Una macrocomputadora puede dar servicio a más de 200 terminales. Hay algunas macros más grandes que dan servicio a más de 10,000 terminales remotos. La velocidad de la macrocomputadora se mide en MIPS (Millones de Instrucciones Por Segundo). 3 Aplicaciones de la Macrocomputadora:
Ejecución de tareas de lotes en grandes volúmenes. Administración de extensas base de datos (consultas, recuperación, y actualización de registros). Sirve como procesador anfitrión en una red distribuida de procesamiento de datos. Minicomputadoras Son computadoras que pueden tener varios procesadores y son utilizadas primordialmente en el sector manufacturero y financiero. También tienen aplicación en el manejo de bases de datos de información y se emplean para la administración de redes de computadores. Utilizan sistemas operativos multiusuarios con una gran cantidad de variantes y fabricantes. Una minicomputadora puede trabajar individualmente pero es más común encontrarla como estación central o bien procesador satelital (conexión hacia una macrocomputadora) con muchos usuarios conectados a ella. Algunas aplicaciones Minicomputadora:
representativas
de
la
Las minis cuentan con las capacidades operativas de las macros que pueden ser de 10 hasta 1000 veces más rápidas. Simplemente que las minis son mas lentas en cuanto a las macros, y tienen menos capacidad de almacenamiento, las impresoras no son tan rápidas y se pueden dar servicio a menos terminales. Puede dar servicio a más de 150 terminales, pero no más de 200. 55
Las minis realizan cualquier tarea desde imprimir cuentas de servicio hasta controlar robots industriales. Su velocidad se mide en MIPS (millones de instrucciones por segundo). Estaciones de trabajo (workstations) Se encuentra entre las minis y las micros aunque se parece más a las micros. Las estaciones de trabajo tienen una gran diferencia con sus primas la microcomputadoras en 2 áreas principales:
Internamente ya que están construidas en forma diferente que las micros. Están basadas generalmente en otra filosofía de diseño de CPU llamado procesador de cómputo con un conjunto de instrucciones reducidas (RISC) lo cual origina un procesamiento más rápido de las instrucciones. La otra diferencia entre las estaciones de trabajo y micros es que las micros pueden correr cualquiera de los 4 sistemas operativos mas importantes DOS, UNIX, OS/2, WINDOWS NT y las estaciones de trabajo generalmente corren el sistema operativo UNIX o una variación de este (XENIX). Por tradición las estaciones de trabajo se han enfocado hacia usuarios de poder avanzados como científicos, programadores, ingenieros y otras personas con actividades similares. Algunas aplicaciones representativas de la Estaciones de trabajo (workstations):
El uso común es para el diseño asistido por computadora (CAD). Cirujanos y ortopedistas para diseñar y construir prótesis de cadera y rodilla. Las estaciones de trabajo se están tornando tan poderosas que cada vez se usan mas para manejar tareas administrativas básicas como contabilidad. La estación de trabajo se lanzó al mercado a principios de los 80. Las de altas capacidades actuales tienen capacidad de procesamientos similares a las de las macros que atienden hasta 2000 terminales.
56
Es probable que la mayor amenaza competitiva para las minis sea la estación de trabajo una computadora de escritorio que tiene el poder de una mini pero mas barata. Microcomputadoras O también llamadas PC computadoras personales estas vienen en todas formas y tamaños. Son más pequeñas que las minis y estaciones de trabajo. La mayor parte de las PC’ s usan la arquitectura CISC (Computadora con un conjunto de instrucciones complejas), las que usan la tecnología RISC efectúan un proceso más rápido para ciertas aplicaciones. Estas tienen 4 tamaños físicos distintos: PC escritorio, torre, laptop y de bolsillo.
Las micros se pueden usar como sistemas independientes o servir como terminales inteligentes de macrocomputadoras, supercomputadoras, minicomputadoras o de estaciones de trabajo. PC de torre y escritorio
Este tipo de computadoras es la más común y es la que se introdujo primero al mercado. La mayoría de estas computadoras son lo suficientemente pequeñas para caber sobre un escritorio, pero son demasiado grandes para llevarlas de un lugar a otro. La única diferencia que podríamos mencionar entre una PC de torre a un PC de escritorio es que la caja principal, llamada Unidad Central de Proceso CPU, se pone en posición vertical en el modelo torre y con frecuencia se coloca en el suelo para ahorrar espacio en el escritorio PC bolsillo Laptop.
Son ligeras, desde unos gramos hasta 6 kg. Son compactas y pueden operar sin una fuente externa de 57
energía de modo que se le pueden llamar también “portátiles”.
Las Laptop, son las predecesoras de las computadoras notebook y son ligeramente más grandes que éstas. Cuentan con todas las capacidades de las PC, las laptop tienen por lo común un teclado casi del tamaño normal. Notebook.
Se llaman así porque su tamaño es similar al de un cuaderno. Algunas de estas computadoras pueden superar por mucho a algunas computadoras de escritorio. Sin embargo hay desventajas: los teclados en miniatura dificultan y reducen la velocidad de captura de datos. Asistentes Personales Digitales.
También llamados a veces como Palmtops, son las computadoras portátiles más pequeñas que caben en la palma de la mano. Esta área de la computación está evolucionando rápidamente. La generación más reciente de este tipo de computadoras llamadas comunicadores inteligentes personales PIC, pueden usar luz infrarroja para comunicarse con computadoras cercanas e incluso tener teléfono celular y fax integrados. Este tipo de computadoras generalmente son usados por gente que no quiere cargar mucho y que no necesita gran cantidad de aplicaciones de negocios mientras está fuera de la oficina. Debido a su poder limitado estas computadoras generalmente no tienen unidad de disco. En vez de ésta, utilizan pequeñas tarjetas del tamaño de las de crédito para almacenar programas y datos. Estas tarjetas han resultado tan prácticas que están siendo adoptadas por los fabricantes de noteboolk, laptop y hasta de computadoras de escritorio. LECTURAS COMPLEMENTARIAS 1.1 Antecedentes históricos y tendencias. 58
La historia de las computadoras tiene un significado especial para nosotros porque muchos de los sucesos más importantes han ocurrido a lo largo de nuestra vida. Las 4 ultimas décadas han sido la parte mas excitante de la historia de la computadora si se toma en cuenta la manera en la que la gente vive y trabaja, llegando en nuestros días a la total dependencia hacia las computadoras, el invento de la computadora digital por Atanasoff en 1942, puede considerarse como uno de los sucesos mas significativos de la historia de la computadora. La era de la información ha llegado para quedarse. La informática se encuentra en casi todas las actividades del ser humano.
1.1.1 Época Antigua.
Desde los más antiguos tiempos, el hombre ha tenido conciencia de sus limitaciones con respecto a su capacidad mental de cálculo, por lo que ha ido desarrollando diversas herramientas de apoyo, que van desde las más simples hasta las más complejas; a continuación se mencionan algunas de ellas: ABACO: Primer dispositivo mecánico de la contabilidad que existió. Tuvo origen en china hace unos 5000 años. Su efectividad ha soportado el paso del tiempo ya que todavía se usa. ESTRUCTURAS DE NAPIER: El matemático escocés Jhon Napier inventor de los logaritmos naturales, ideó un dispositivo basado en palillos que contenían números, capaz de multiplicar y dividir de forma automática. También ideó una calculadora con tarjetas que permitía multiplicar y que tomó el nombre de “Estructuras de Napier”.
59
LA PASCALINA: El inventor Leonardo Da Vinci, trazo la idea de una “Sumadora mecánica”. Siglo y medio después el filósofo y
matemático Blaise Pascal matemático francés finalmente inventó y construyó la primera Sumadora mecánica se llamó “la Pascalina” y funcionaba a base de ruedas y engranes. Aunque la Pascalina se desechó por ser poco práctica, su diseño de ruedas de conteo se uso en todas las calculadoras mecánicas hasta mediados de la década de los sesenta, cuando se tornaron obsoletas ante el surgimiento de las calculadoras electrónicas. REGLA DE CALCULO: En 1650 Patridge basándose en los descubrimientos de Napier, inventó “la Regla de cálculo”, era una
pequeña regla deslizante sobre una base fija en la que figuraban diversas escalas para la realización de determinadas operaciones. Este dispositivo de cálculo fue utilizado hasta los años setenta, en que las calculadoras electrónicas fueron su mejor sustituto. 1era. TARJETA PERFORADA: Joseph Marie Jacquard aprendiz de tejedor nacido en Francia construyó en 1801 “el Telar de Jacquard”, el movimiento de las
agujas, el hilo y la tela se dirigía por medio de perforaciones sobre una tarjeta. A éste se le considera como el creador de la 1era. Maquina mecánica programada.
El primer paso serio en la creación de una computadora lo dio el matemático inglés Charles Babbage quien inició la construcción de 2 máquinas la cuales fueron: MAQUINA DE DIFE-RENCIAS: Durante la apresurada Revolución Industrial personas de todo tipo dependían de las tablas matemáticas, sin embargo al percatarse que sus propias tablas contenían gran cantidad de errores en 1822 Charles Babbage matemático ingles empezó a trabajar en un proyecto financiado por la Royal Society, diseñando 60
su máquina de diferencias activada a base de vapor, con la intención de producir tabla logarítmicas de hasta 6 cifras, pero nunca fue terminada debido a que, mientras avanzaba en la construcción, constantemente se le ocurrían mejoras para perfeccionar el aparato. MAQUINA ANALÍTICA En 1833 Babbage abandona el primer proyecto, e inspirado en las tarjetas perforadas de Jacquard se propone realizar el verdadero sueño de su vida el diseño de su máquina analítica similar a la computadora actual, Esta calculadora, que seria capaz de realizar cualquier tipo de calculo de manera digital, tampoco pudo ser concluida debido a que su tecnología era muy adelantada para la época y nunca pudo construir las sofisticadas piezas que diseñaba para ella. Si la tecnología de esa época hubiera estado al nivel de este gran genio, posiblemente desde entonces hubiéramos contado con la primera computadora digital, pues disponía de programa, memoria, unidad de control, periféricos de entrada periféricos de salida. Realizaba automáticamente tablas de logaritmos y funciones trigonométricas.
ESQUEMA DE LA MAQUINA ANALITICA DE BABBAGE
Salida a tarjetas
Entrada de
perforadas Tarjetas
Memoria
Calculadora
A pesar de que el proyecto nunca se llevó a cabo, en reconocimiento a su genio, muchos consideran a Charles Babbage como el Padre de las Computadoras , aunque su invento no pasó de ser el prototipo de una excelente máquina mecánica de cálculo.
61
PRIMER PROGRAMADORA: Una matemática aficionada amiga de Babbage Ada Augusta Lovelace (hija de Lord Byron), se intereso mucho en la maquina analítica y trabajó junto con él. Se convirtió así en la primera programadora de la historia (1842,) pues escribió secuencias de instrucciones en tarjetas perforadas, inventó métodos de programación como la subrutina e introdujo en sus programas las interacciones y el salto condicional, lo que abre ya la posibilidad de tomar decisiones automáticamente. Otra de sus contribuciones es que propuso utilizar el sistema binario en lugar del decimal que utilizaba Babbage para la codificación de los programas en tarjetas perforadas. MAQUINA CENSADORA: En el año de 1885 Herman Hollerit, funcionario de la oficina de censos de los E.U. vio que se tardaban 10 años en realizar un censo anual del país y observo que la maquina de las preguntas del censo tenían como respuesta si ó no por lo que ideo en 1886 una tarjeta perforada para contener la información de las personas censadas y una maquina capaz de leer y tabular dicha información a la que llamo máquina censadora la cual fue capaz de reducir el trabajo manual a la 3era. parte el censo de 1890 solo tardo poco menos de 3 años y se perforaron 56 millones de tarjetas. Hollerith rento su maquinaria a los Gobiernos de: Estados Unidos, Canadá, Austria, Rusia y otros países. En 1895 incluyó en su máquina la operación de sumar con el fin de utilizarla para la contabilidad de los ferrocarriles centrales de Nueva Cork. En 1896 se une con otras 2 empresas y forman la Tabulating Machines Company la cual en 1924 T. J. Watson le cambia el nombre por el de (IBM) Internacional Business Machines.
Para llegar a algo que ya se puede considerar como una computadora digital con capacidad para recibir datos mediante un dispositivo de entrada, almacenarlos en localidades de memoria, procesarlos, ordenándolos y haciendo los cálculos necesarios, y entregar los resultados como información visual o impresa hubo que
62
esperar al siglo XX, cuando se dieron los grandes descubrimientos que permitieron la creación de esa asombrosa maquina. 1.1.2 Época Moderna.
En el decenio 1930-1940 hubo una explosión de actividad concerniente al desarrollo de computadoras. Este período fue llamado “Los años de efervescencia “ ya que sufrió la poderosa influencia de la segunda guerra mundial, debido ha ésta, se intensificó la necesidad de cálculos científicos, el gobierno financió varios proyectos claves entre los que estuvo la construcción de una serie de 5 computadoras a gran escala bajo la dirección de George Stibitz a pedido del ejercito de los E.U. se le llamo la computadora de relés de Bell, debido a que utilizaban relés electrónicos como componentes operacionales básicos y que se construyeron en los Laboratorios Bell. Además de las operaciones específicas que realizaban las computadoras de Bell probaron que podían realizar operaciones las 24 horas durante los 7 días a la semana con muy pocos errores. En 1937 a inicios John Vincent Atanasoff profesor de la Universidad estatal de Iowa, comenzó a formular los principios de la primera calculadora electrónica automática con ayuda del estudiante graduado Clifford Berry e inicio la construcción del prototipo de computadora que operaba en binario siguiendo la idea de Babbage, con el fin de reducir el tiempo que los estudiantes de física debían pasar realizando cálculos complicados. En 1942 se terminó un modelo que funcionaba. Las decisiones de Atanasoff (de usar un medio electrónico con tubos al vació, el sistema de numeración con base en el 2, y circuitos de memoria y lógica) determinaron la dirección de la computadora moderna. Esta máquina llamada ABC (Atanasoff-Berry-Computer) fue considerada como la primera computadora digital electrónica automática . Irónicamente, el Estado de Iowa no pudo patentar el aparato y cuando se estableció comunicación con IBM acerca del ABC, esta respondió con un dejo de frivolidad que hizo que “IBM jamás se interesara en una maquina de computación electrónica”. En 1973,
un tribunal federal en ejercicio de sus funciones otorgó en forma oficial a Atanasoff los créditos de la invención de la “computadora digital electrónica automática”.
63
En 1937 Howard Aiken de la Universidad de Harvard desarrollo la idea de Babbage junto con científicos de la IBM y primera construyen la computadora electromecánica basada en relés ó ruedas dentadas electromecánicos a la cual se le llamo MARK I. Esta se terminó de construir en 1944 tenia elementos de entrada, memoria principal, unidad aritmética, Unidad de control, entrada y salida , utilizando como
dispositivos de entrada/salida tarjetas y cintas perforadas. Pesaba unas 5 toneladas, estaba constituida por 78 máquinas sumadoras conectadas entre si mediante 800 km. de cable, recibía las instrucciones por medio de cinta perforada de papel, y multiplicaba 2 números de 10 dígitos en 3 segundos aproximadamente. Esta computadora estuvo activa desde 1944 hasta 15 años más tarde, en que fue desmantelada. Se utilizo poco tiempo ya que nacieron las computadoras electrónicas e hizo que las de este tipo cayeran rápidamente en desuso. Durante este mismo tiempo un alemán llamado Konrad Zuse se dedico al diseño y construcción de computadoras. Su primer intento denominado inicialmente como Z1 lo inicio en su casa. A pesar de que muchos de sus trabajos fueron destruidos por la guerra continúo trabajando hasta diseñar y mejorar modelos, y por último formar una compañía productora de computadoras. Se le atribuye la primera computadora de propósito general controlada por programas. Durante la guerra, la inteligencia británica construyó una serie de computadoras electrónicas conocidas como Colossi, era un proyecto altamente secreto, se desarrollo para propósitos específicos para la lectura de códigos, entro en operación en diciembre de 1943. En 1940 John Mauchly y J.A. Eckert Jr. Junto con científicos 64
de la universidad de Pennsylvania, construyeron la primera computadora electrónica denominada ENIAC (Electrónica Numerical Integrador and Calculator ) basada en los trabajo de Atanasoff que entró en funcionamiento en 1945. Fue un proyecto del ejército de los E.U. para el cálculo de trayectoria de proyectiles. Era 1000 veces más rápida que la Mark I y realizaba 5000 sumas y 500 multiplicaciones por minuto, ocupaba 167 metros cuadrados, tenía un peso de 30 toneladas, 18,000 válvulas de vacío, 70,000 resistencias, y consumía entre 100,000 y 200,000 voltios, esto hacia que al conectarse la ENIAC las luces de Filadelfia sufrieran un caída en su iluminación. Además el equipo necesitaba ventilación y el mantenimiento era elevado sobre todo debido a la gran cantidad de válvulas. La programación de las primeras computadoras era una tarea enorme que requería: -estar totalmente familiarizado con los detalles de operación de la máquina, una gran cantidad de ingenio y mucha paciencia-, los programas de la ENIAC por ejemplo, se cargaban y cambiaban modificando los alambres entre sus componentes, posiblemente una tarea que les llevaba de uno a dos días en programar una computadora que era capaz de resolver problemas en minutos. El Doctor Jhon Von Neuman consultor del proyecto ENIAC, fue el primero en proponer el concepto de programa almacenado (desarrolla la idea del programa interno) y describe el fundamento teórico de construcción de una computadora electrónica denominada Modelo de Von Neuman era la unión de datos e instrucciones en la computadora y la posibilidad de ser programados no estando las ordenes cableadas. Es por esto que Von Neuman y el equipo de la ENIAC proponen el concepto de programa almacenado. Sugirió que las instrucciones podían almacenarse en la computadora junto con los datos, lo cual aumentaba la flexibilidad y aplicabilidad de la computadora en 2 sentidos: 1. Las instrucciones podrían cambiarse sin tener que alambrar manualmente las conexiones. 2. Las instrucciones serian almacenadas como números. 65
Por lo que antes de terminar la ENIAC, ya se trabajaba en la EDVAC (Electronic Discrete Variable Automatic Computer) que contemplaba las teorías sobre programación almacenada en la memoria de la máquina, ésta era solo una modificación de la ENIAC. Neuman terminó la computadora EDVAC en 1952 debido a un retraso (desintegración del equipo de trabajo), aparece antes en 1949 la EDSAC (Electronic delay storage automatic computer) construida en Cambridge por M.V.Wilkes y fue considerada como la primer computadora que podía almacenar un programa digital . Mauchly y Eckert. Pasaron del proyecto de la EDVAC al de la Construcción de una máquina denominada Computadora Automática Universal UNIVAC primera que fue la computadora digital producida comer-cialmente desarrollada en 1951 y a partir de entonces la tecnología avanza a pasos agigantados hasta llegar a nuestros días, donde las microcompu-tadoras han alcanzado un alto grado de perfección por sus grandes velocidades de procesamiento, su gran capacidad de almacenamiento en la memoria, la reducción considerable en su tamaño y sus precios bastante accesibles para casi todos los consumidores.
Sin embargo, como en la mayoría de los eventos que se van sucediendo sin un control por parte de un país o una sola universidad, el desarrollo de las computadoras no cuenta con una bitácora precisa que permita asegurar sin temor a equivocaciones el período medido en años, que abarque cada una de esas generaciones. Hay quienes ubican a la primera generación a partir de 1937 o antes, relacionándola con los primeros trabajo del Dr. Konrad Zuse y del Dr. Aiken, otros consideran a 1951 como el año de arranque de la computación, por coincidencia con la aparición de 66
la primera computadora comercial UNIVAC. Por estos motivos, no es conveniente tomar partido por alguna de estas teorías, sino considerar a las fechas en que se dieron los grandes cambios tecnológicos, como parámetros para determinar el fin de una etapa y el comienzo de otra. 1.1.2.1 Cuatro inventos decisivos. 1er. Generación. “Válvulas de vacío”
En 1904 Jhon Ambose Fleming fabrica su válvula diodo, primer dispositivo electrónico que conduce la corriente eléctrica en un solo sentido. En 1907 Lee de Forest inventa el tubo de vacío (bulbo) de 3 elementos que puede controlar el flujo eléctrico y amplificar las señales débiles a voluntad. 2da. Generación. “Transistores”
En 1947 el transistor es inventado por Walter Brattain y Jhon Bardeen en los Laboratorios Bell, sustituyó a la válvula permitiendo la reducción de los circuitos en tamaño y aumentando la fiabilidad de los equipos debido a sus mejores características. 3er. Generación. “Circuitos Integrados”
El circuito integrado fue creado por Jack Kilby en 1958, y Robert Noyce lo perfeccionó en 1959 fabricándolo con silicio, un solo circuito integrado reemplazaba a cientos de transistores y realizaba millones de cálculos por segundo . 4ta. Generación “Microprocesadores”
67
En 1971 apareció el Microprocesador desarrollado por los ingenieros de Intel, Federico Faggin, Marcian E. Hoff y Stan Mazor, en el que se consiguió implementar toda la UCP de una computadora en un solo elemento integrado. 1.1.3 Época actual. Generación de las computadoras 1ª. Generación:
Esta generación la constituyen todas aquellas computadoras construidas a base de Válvulas de Vacío y cuyo uso fundamental fue la realización de aplicaciones en los campos Científicos y Militar. Utilizaban como lenguaje de programación el Lenguaje Máquina (El Concepto de Programa Almacenado) y como únicas memorias para conservar información las Tarjetas Perforadas. El costo de construir tales maquinas era realmente exorbitante, y comparado con el rendimiento resultaban inaccesibles para el mercado contemporáneo, por lo que IBM optó por retirarse temporalmente de ese giro. 2ª. Generación de Computadoras (1959-1964).
El transistor representó la construcción de Computadoras mas poderosas y confiables, eran de menor costo, ocupaban menos espacio y producían menos calor que las computadoras que operan a base de tubos al vacío, lo que las hacia mas prácticas. Respecto a la programación o software, seguían dominando los sistemas de tarjeta o cinta perforada para la entrada de datos. Nace en los Laboratorios Bell la TRADIC (Transistorized Airborne Digital Computer) que ya incluía 800 transistores en su estructura interna.
68
Otro gran logro de esta época, es el desarrollo del primer lenguaje de alto nivel el FORTRAN (FORmula TRANslator) desarrollado por Jhon Backus, este lenguaje es muy apropiado para trabajos científicos, matemáticos y de ingeniería. En 1958 Jhon McCarthy desarrolla el lenguaje LISP (acrónimo de LISt Processor), que aporta grandes avances en la investigación sobre Inteligencia Artificial. Uno de los más grandes avances en cuanto a portabilidad de programas entre diferentes computadoras fue el COBOL (Common Business Oriented Language) desarrollado por Grace Murray Hopper. La introducción de memorias de ferrita en estas computadoras hizo posible que se redujeran de tamaño considerablemente así como el consumo de energía eléctrica, Algunas de las computadoras que se construyeron ya con transistores fueron la IBM 1401, las Honeywell 800, UNIVAC M460, etc. Se construyen las supercomputadoras : Reminigton Rand, UNIVAC LARC y la IBM Stretch. 1959 IBM lanzó la 7090 una computadora transistorizada, se vendieron cientos de éstas a un promedio de 3 millones de dólares. Los campos de aplicación Administrativo y de Gestión.
eran
el
Científico,
Militar,
3ª. Generación de Computadoras.
El suceso más importante en la historia de las computadoras ocurrió cuando la IBM anunció su línea de Macrocomputadoras sistema 360 con su tecnología SLT (Solid Logic Technology) el 7 de abril de 1964. Ésta maquina causó tal impacto en el mundo de la computación que se fabricaron mas de 30,000. Los Circuitos integrados hicieron por la 3ª. Generación lo que los transistores por la 2ª. Generación, los sistemas 360 provocaron que todas las computadoras instaladas con anterioridad se volvieran obsoletas. No hubo problemas de compatibilidad. Se dice que el cambio fue revolucionario no evolutivo y provoco pesadillas a miles de usuarios. Esta serie alcanzo un éxito enorme, a tal grado que la 69
gente en general, pronto llegó a identificar el concepto con el nombre de IBM. Sin embargo, sus máquinas no fueron las únicas, ni necesariamente las mejores. Control Data Corporation presenta la supercomputadora CDC 6600, que se consideró como la más poderosa de la época, ya que tenía capacidad de ejecutar 3 millones de instrucciones por segundo (MIPS); se empiezan a utilizar los medios magnéticos de almacenamiento, como cintas magnéticas y enormes discos rígidos Características predominantes de la 3ª. Generación: Circuitos Integrados. Compatibilidad con equipo mayor , ya que una Compañía podía adquirir un equipo con un distribuidor particular y después cambiar a una computadora más poderosa sin necesidad de volver a programar o diseñar los sistemas existentes. Multiprogramación. Estas computadoras corren a tal velocidad que pueden correr más de un programa de manera simultánea (Multiprogramación), p/ejemplo: en cualquier momento la máquina puede estar imprimiendo cheques, aceptando órdenes y probando programas. Minicomputadora. Surgen las minicomputadoras las cuales no son tan costosas como las grandes máquinas, pero ya disponen de gran capacidad de proceso. IBM crea el modelo 34 que luego fue reemplazado por los modelos 36 y 38. 4ª. Generación de Computadoras (1971-1982).
Una de las contribuciones más importantes al surgimiento de la 4ª. Generación es el microprocesador que puede estar contenido en una pastilla de Silicio ó Chip y que es el producto de la microminiaturización de los circuitos electrónicos. El primer procesador totalmente operacional al que se le llama a veces “Computadora dentro de un Circuito o Chip”, hoy hay más microprocesadores que gente sobre la tierra. Este dispositivo puede encontrársele en cualquier parte, desde ascensores hasta satélites. 70
Las principales empresas tecnológicas que dominan este mercado son: IBM y sus compatibles llamadas “clones”, fabricadas por infinidad de compañías, en segundo término Apple Computer. Características predominantes de la 4tª. Generación
Crece la capacidad de almacenamiento de información. se perfeccionan el almacenamiento auxiliar y los dispositivos de entrada/salida (Unidades de discos flexibles y duros, tableros digitales, lectoras de Código, Impresoras rayo láser, matriz de puntos Impresoras chorros de tinta, etc.). Aparecen las microcomputadoras PC’ s.
Los sistemas operativos alcanzan notable desarrollo que permite utilizar interfaces gráficas de usuario (GUI). El software tiende a enfocarse al usuario poco experimentado. Lenguajes de aplicación dbase, Informix, Prolog, Lotus, etc. 5ta. Generación de Computadoras
Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software): Inteligencia Artificial, sistemas expertos, redes neuronales, fibras ópticas, telecomunicaciones, etc., a mediados de la década de los 80’s se
establecieron las bases de lo que se puede considerar como 5ta. Generación de computadoras. Hay que mencionar 2 grandes avances tecnológicos que quizás sirvan como parámetro para el inicio de dicha generación: 1) La creación en 1982 de la primer supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc. y 2) El anuncio de Japón del proyecto “Quinta Generación” un acuerdo con seis de las mas grandes
empresas japonesas de computación que debería de terminar en 1992, una de las características principales de este era la aplicación de Inteligencia artificial . 71
Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes, tienen la capacidad de comunicarse con un lenguaje natural, e irán adquiriendo la habilidad para tomar decisiones fundamentadas en sistemas expertos e inteligencia artificial. El almacenamiento de información se realiza en dispositivos magnéticos-ópticos con capacidad de decenas de gigabytes. Se establece el DVD como estándar para el almacenamiento de vídeo y sonido, la capacidad de almacenamiento crece de manera exponencial. Los microprocesadores actuales utilizan tecnologías de alta y ultra integración denominadas VLSI (Very Large Scale Integration) y ULSI Ultra Large Scale Integration). El hardware de computadoras continúa declinando en precio mientras que las velocidades de procesamiento y las capacidades de almacenamiento aumentan. El tamaño físico de los procesadores y memorias disminuye. Características de la 5ta. Generación:
Consolidación del concepto multimedia. Reconocimiento de voz. Dispositivos inalámbricos. El multiprocesamiento se hace más común. Hacer posible la intercomunicación hombre máquina basados en lenguaje natural. Se logran procesos paralelos ya que varias instrucciones pueden ser ejecutadas al mismo tiempo. 72
6ta. Generación de Computadoras
Como supuestamente la sexta generación de computadoras está en marcha desde principios de los noventas, se señalaran las características que deben tener las computadoras de esta generación. Se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops). Las redes de área mundial (Wide Area Networek, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites con anchos de banda impresionantes. 1.1.4 Época Futura.
De acuerdo con la Ley de Moore, “indica que cada 18 meses los procesadores duplicaran su poder en la mitad de su tamaño” y llegaran al nivel
atómico alrededor del año 2012. De acuerdo con él mismo y, por su parte Lucent Technologies, han profetizado que alrededor del año 2012 los transistores llegaran al límite de su capacidad de miniaturización, por lo que es necesario encontrar otros materiales para continuar con ese proceso tecnológico. Ese proceso tecnológico se le ha dado el nombre de Nanotecnología o sea, el desarrollo de dispositivos cuyo tamaño no excede de la mil millonésima parte de un metro. P/e. En la Universidad de Nueva York, se han creado nano-robots cuya particularidad es que fueron desarrollados a partir de apariencias de DNA artificial, lo que los hace totalmente compatibles con un organismo viviente, cuyo objeto será entrar en 73
el torrente sanguíneo de una persona y realizar algunos procedimientos médicos que de otra forma requerirían de una operación o estudios mas tardados. En este campo será concebible que se introduzcan minúsculos agentes que puedan medir concentraciones de toxinas, ataquen y destruyan células cancerígenas o liberen arterias obstruidas. A este nivel todavía quedan varios elementos por definir, puesto que no saben cuanta fuerza pueda tener el nano-robot para ejercer alguna función. En el campo de la electrónica tenemos a dos contendientes que han desarrollado servidores muy, pero muy pequeños. El anterior rey de miniservidor era el profesor Vaughan Pratt de la Universidad de Santford, que tenia el Matchbox Server del tamaño, como su nombre lo indica, de una cajetilla de cerillos y que hospeda su pagina de internet; sin embargo, un estudiante graduado del MIT cuyo nombre (el casi impronunciable Hariharasubrahmanian Shrikumar) llamado Shri, desarrolló el servidor iPIc del tamaño aproximado de una cabeza de cerillo y que puede dar servicio de Internet. Aplicaciones prácticas de la nanotecnología se verán hasta dentro de 10 años o más, y que potencialmente cambiaran nuestra vida. El Chip Molecular
El chip molecular, está llamado a jubilar al microprocesador de silicio. Supondrá el paso de la microelectrónica a la “moletrónica” o “electrónica molecular” y la entrada de la química en la fabricación
de microprocesadores. Los chips moleculares se elaboran sobre un componente químico nuevo, el rotaxano, que permitirá reducir el tamaño de los circuitos a una molécula. La nueva técnica podrá reproducir la potencia de 100 computadoras en la cabeza de un alfiler.
74
El futuro de los microprocesadores
Los investigadores de Intel han desarrollado los transistores más rápidos del mundo -que son casi 1000% más rápidos que los procesadores más rápidos de la actualidad, los Procesadores Pentium® 4-. Estos transistores conducirán a procesadores compuestos de mil millones de transistores, ejecutando a velocidades cercanas a 20 gigahertz y operando con menos de un volt antes del fin de la década. Y a pesar de la idea general que la Nanotecnología sustituirá al silicio, estos transistores tienen base de silicio. Usando materiales normales y estructuras de transistores 75
para alcanzar este nivel, Intel mostró que la innovación puede continuar con su paso actual. Los Microprocesadores, el “Cerebro” de nuestra computadora
Un microprocesador (o simplemente Procesador), es un chip de silicón con una Unidad Central de Proceso que ejecuta todas las instrucciones. Éste se localiza en el centro de todas las computadoras personales y estaciones de trabajo, controlando además los procesos lógicos de dispositivos digitales, como los relojes o sistemas de inyección de gasolina de los automóviles, etc. Existen 3 características que determinan la Capacidad de un Procesador:
1. Conjunto de instrucciones (Instruction set). Serie de instrucciones que el procesador puede ejecutar. 2. Ancho de banda (Bandwidth). Numero de bits procesados en una sola instrucción. 3. Velocidad de reloj (clock speed). Cuya medida son MegaHertz (MHz), determina cuantas instrucciones por segundo puede ejecutar el procesador. De una manera simplista, por eso los procesadores a 64 bits (ancho de banda) son más rápidos que aquellos de 16 bits. De manera similar, mientras mayor sea la velocidad del reloj (MegaHertz), más instrucciones puede procesar por segundo. Los principales competidores en la creación de microprocesadores son: Intel, ( www.intel.com ), Advanced Micro Device ( www.amd.com ), Motorola, ( www.motorola.com ), Cyrix ( www.cyrix.com ) y Alpha Processors ( www.alphaprocessors.com ).
76
Intel junto con Microsoft son las que han definido el camino de la computación personal durante los últimos 32 años, claro que ha tenido altibajos, pero continúa siendo el líder del mercado. 1.2. El Modelo de Von Neumann
Los primeros dispositivos de cómputo no se distinguían por su flexibilidad, pues era frecuente que el programa que cada uno ejecutaba estuviera en gran medida integrado en la Unidad de Control y formara parte de la maquina. Un sistema así es semejante a una caja de música que siempre toca la misma canción, cuando lo que se necesita es la flexibilidad de un cambiador de discos compactos. Una estrategia que se utilizó para lograr esa flexibilidad en los primeros computadores electrónicos fue: diseñar las unidades de control de modo que pudieran reconectarse con facilidad, cosa que se hacia mediante un tablero de clavijas similar a los antiguos conmutadores telefónicos, en los que se insertaban en agujeros los extremos de cables puenteadores. Las instrucciones como patrones de bits 1 Un avance crucial (atributo, tal vez de manera errónea, a Jhon Von Neumann) tuvo lugar cuando se tomó conciencia de que los programas, al igual que los datos, se podían codificar y almacenar en la memoria principal .
Este concepto de programa almacenado se ha convertido en el enfoque estándar en la actualidad. Para aplicarlo, las máquinas se diseñan de modo que puedan darse cuenta de que ciertos patrones de bits representan ciertas instrucciones. Esta serie de instrucciones, junto con el sistema de codificación, se denomina lenguaje maquina porque define la forma en que comunicamos algoritmos a la maquina. 1
Hay quienes aseguran que el primero en desarrollar esta idea fue J.P. Eckert Jr., en la Moore School, pero que sus ideas se 77
convirtieron en parte de una labor de grupo, para finalmente ser atribuidas indebidamente a Von Neumann. Introducción a la Informática.
Desde sus orígenes, el hombre ha tenido necesidad de la información. Esta información, que en principio se recogía de forma oral, con la aparición de la escritura, comenzó a almacenarse en medios que evolucionaron desde las tablillas hasta el papel, pasando por los papiros y los pergaminos. También los medios de transmisión han ido evolucionando desde la transmisión oral, buena para distancias cortas, hasta la transmisión a grandes distancias por cables utilizando código Morse (telégrafo) o la propia voz mediante el teléfono. Se puede decir que el tratamiento de la información es tan antiguo como el hombre y se ha ido potenciando y haciendo más sofisticado con el transcurso del tiempo hasta llegar a la era de la electrónica. El hombre no ha parado a lo largo de la historia de crear máquinas y métodos para procesar la información. Para facilitar esta tarea, en especial en el mundo actual, donde la cantidad de información que se procesa a diario es enorme, surge la informática. Definiciones básicas:
El término Informática proviene de la unión de las palabras información y automática. De una forma muy general, podemos decir que la informática se ocupa del tratamiento automático de la información. Concretando más, podemos definir Informática: como la ciencia o conjunto, de conocimientos científicos que permiten el tratamiento automático de la información por medio de ordenadores .
Como se puede observar, en la definición anterior de Informática, intervienen dos palabras clave: 78
Información, y ordenador. Información
Por información se entiende cualquier conjunto de símbolos que represente hechos, objetos o ideas. Computadora
¿Qué es un ordenador? Un ordenador o computadora es una máquina compuesta de una serie de circuitos electrónicos que es capaz de recoger unos datos de entrada, efectuar con ellos ciertos cálculos, operaciones lógicas y/o aritméticas, y devolver los datos o información resultante por medio de algún medio de salida. Todas estas acciones las realiza por medio de un programa de instrucciones previamente introducido en ella, sin necesidad de intervención humana. La computadora se diferencia del resto de las máquinas con capacidad de tratar información (por ejemplo, una calculadora básica o una máquina de escribir) en lo siguiente:
Gran velocidad de tratamiento de la información. Gran potencia de cálculo aritmético y lógico. Capacidad para memorizar los programas y datos necesarios para resolver cualquier problema técnico o de gestión. Capacidad de comunicación con las personas y con otras máquinas, y dispositivos para recibir o transmitir datos. Posibilidad de tratamiento de datos en tiempo real.
79
Actúa sin intervención de un operador humano y bajo el control de un programa previamente almacenado en la propia computadora. Desde el “punto de vista informático”, existen dos tipos de información: Datos e instrucciones .
Los datos son conjuntos de símbolos que utilizamos para expresar o representar un valor numérico, un hecho, un objeto ó una idea en la forma adecuada para su tratamiento. En informática, también se entiende como dato: una matrícula, una dirección, un nombre, etc. Estos datos los puede obtener el ordenador directamente mediante mecanismos electrónicos (detectar sonidos, temperaturas, contornos, imágenes,...) o pueden ser introducidos mediante grafismos (letras y números) que es el medio más utilizado (lenguaje escrito). Cualquier información (datos e instrucciones) se puede introducir al ordenador mediante caracteres (letras, dígitos, símbolos especiales). Generalmente la computadora devolverá la información utilizando también esta forma escrita. Las instrucciones le indican a la computadora qué es lo que debe realizar y los datos son los elementos sobre los que actúan o que generan las instrucciones . Visto esto, una computadora la podemos ver como un sistema que tiene como entradas datos e instrucciones y produce en función de éstos unos determinados resultados. El funcionamiento básico de un ordenador se podría describir así:
Programa
80
Cálculos Entrada
Operaciones Aritméticas
Salida
¿Cuáles son las razones principales que de alguna forma han obligado a la automatización del tratamiento de la información?
1. A veces es necesario realizar funciones que el hombre puede abordar por sí mismo pero que le llevarían mucho tiempo, como por ejemplo, cálculos complejos como los necesarios para el seguimiento y control de naves espaciales (cálculos en tiempo real). 2. Es preciso realizar funciones que el hombre, por sí solo no pude cubrir, como por ejemplo, las comunicaciones a larga distancia. 3. Es necesario obtener seguridad en algunas tareas, sobre todo en las de tipo repetitivo en las que el hombre es más propenso a cometer errores. Sin embargo, las máquinas, una vez que se les ha enseñado cómo realizar las tareas correctamente, repiten el proceso una y otra vez sin cometer ningún error. 4. Se puede sustituir al hombre en las tareas monótonas. Este tipo de tareas no implican el desarrollo de su actividad intelectual, con lo que al automatizarlas, el hombre puede dedicar su esfuerzo a funciones más decisivas e importantes.
Características esenciales de una computadora:
Una de las características esenciales de una computadora es que trata información digital, es decir trabaja en lenguaje binario (serie de 1 y 0) Así toda la información va a ser digitalizada (traducida a
81
lenguaje binario). El elemento binario (bit) es la unidad de cuantificación elemental. La medida de información se hace en números de bits o en números de “Octetos” (bytes).
Como se representa la información en las computadoras (Bits y Bytes)
Para que la información fluya a través de un sistema de cómputo y tome la forma adecuada para ser procesada, todos los símbolos, imágenes o palabras deben ser reducidos a una cadena de dígitos binarios. Un dígito binario se llama bit o representa un cero o un uno. En la computadora, la presencia de un símbolo magnético o electrónico significa un uno y su ausencia significa un cero. Las computadoras digitales operan directamente con dígitos binarios, ya sea aisladamente o encadenados para formar bytes. Una cadena de 8 bits se llama byte . Cada byte puede ser usado para representar un número decimal, un símbolo o una parte de una imagen. Bit: un dígito binario que representa la unidad de información más pequeña en un sistema de cómputo. Puede tener solo 2 estados representados por 0 o 1. Byte: Una cadena de bits, en general 8, que se emplea para representar un numero o carácter almacenado en el sistema de computo. Kilobyte: Mil bytes (en realidad, 1024 posiciones), empleado como medida de capacidad de almacenamiento en las microcomputadoras. Megabyte: Aproximadamente un millón de bytes. Gigabyte: Aproximadamente mil millones de bytes. 82