También a mediados de la década de 1980, Ross Freeman y sus colegas de Xilinx desarrollaron un enfoque inteligente para construir circuitos integrados que no requerían carretillas llenas de dinero o acceso a una instalación de fabricación de silicio. Este nuevo tipo de chip de computadora, llamado FPGA, contenía una gran cantidad de puertas lógicas genéricas que podían ser "programadas" en cualquier circuito que encajara en el dispositivo. Este notable nuevo enfoque en el diseño de hardware hizo hardware FPGA tan maleable como el software. El uso de FPGAs que cuestan decenas a cientos de dólares de los EE.UU., se hizo posible la construcción de sistemas informáticos especializados para aplicaciones únicas que sólo servían a unos pocos usuarios. Afortunadamente, Afortunadamente, las empresas de fabricación de silicio todavía podrían producir chips más rápidos, de menor potencia y menos costosos para aplicaciones que necesitaban millones de chips. Sin embargo, para aplicaciones con sólo unos pocos usuarios, como prototipos, aplicaciones de diseño de bajo volumen y educación, los FPGAs siguen siendo una herramienta popular para la construcción de hardware. Hasta 1992, los ordenadores personales eran de 8 bits, 16 bits o 32 bits. Entonces DEC salió con la revolucionaria Alpha de 64 bits, una verdadera máquina RISC de 64 bits que superó a todos los demás ordenadores personales por un amplio margen. Tuvo un modesto éxito, pero casi una década pasó antes de que las máquinas de 64 bits comenzaran a captarse en gran medida, y luego en su mayoría como servidores de gama alta. A lo largo de la década de 1990 los sistemas de computación se estaban haciendo más y más rápido utilizando una variedad de optimizaciones de microarquitectura, muchas de las cuales examinaremos en este libro. Los usuarios de estos sistemas fueron mimados por los vendedores de computadoras, porque cada nuevo sistema que compraban ejecutaría sus programas mucho más rápido que su sistema anterior. Sin embargo, a finales de la década de 1990 esta tendencia estaba empezando a disminuir debido a dos importantes obstáculos en el diseño de computadoras: computadoras: los arquitectos se estaban quedando sin trucos para hacer programas más rápido, y los procesadores estaban demasiado caros para enfriarse. Desesperados por seguir construyendo procesadores más rápidos, la mayoría de las compañías de computadoras comenzaron a volverse hacia arquitecturas paralelas como una manera de sacar más rendimiento de su silicio. En 2001, IBM presentó la arquitectura POWER4 POWER4 dual-core. Esta fue la primera vez que una CPU mainstream incorporó dos procesadores en el mismo dado. Hoy en día, la mayoría de los procesadores de escritorio y servidores, e incluso algunos procesadores incorporados, incorporan múltiples procesadores en el chip. Por desgracia, el rendimiento de estos multiprocesadores ha sido menos que estelar para el usuario típico, ya que (como veremos en capítulos posteriores) las máquinas paralelas requieren que los programadores programadores paralelicen explícitamente los programas, lo cual es una tarea difícil y propensa a errores. 1.2.6 La quinta generación de computadoras de baja potencia e invisibles En 1981, el gobierno japonés anunció que planeaba gastar 500 millones de dólares para ayudar a las empresas japonesas a desarrollar computadoras de quinta generación, que estarían basadas en inteligencia artificial y representarían un salto cuántico respecto a las computadoras de cuarta generación. Habiendo visto a las compañías japonesas japonesas tomar el control del mercado en muchas industrias, desde cámaras a equipos de música a televisores, fabricantes de computadoras estadounidenses y europeos pasaron de 0 a pánico completo en un milisegundo, exigiendo subsidios gubernamentales gubernamentales y más. A pesar de mucha fanfarria, el proyecto japonés de quinta generación fracasó básicamente y fue abandonado en silencio. En cierto sentido, era como el motor analítico de Babbage, una idea visionaria, pero tan adelantada a su tiempo que la tecnología para construirla realmente no estaba a la vista. Sin embargo, lo que podría llamarse la quinta generación ocurrió, pero de una manera inesperada: las computadoras se encogieron.
En 1989, los sistemas de la rejilla lanzaron el primer ordenador de la tableta, llamado GridPad. Consistía en una pequeña pantalla en la que los usuarios podían escribir con un lápiz especial para controlar el sistema. Sistemas como el GridPad demostraron que las computadoras no necesitaban sentarse en un escritorio o en una sala de servidores, sino que podrían colocarse en un paquete fácil de llevar con pantallas táctiles y reconocimiento de escritura a mano para hacerlas aún más valiosas. El Apple Newton, lanzado en 1993, mostró que una computadora podría ser construida en un paquete no más grande que un reproductor portátil de audiocasetes. Al igual que el GridPad, el Newton utilizó la escritura a mano para la entrada del usuario, que en este caso resultó ser un gran obstáculo para su éxito. Sin embargo, máquinas posteriores de esta clase, ahora llamadas PDAs (Personal Digital Assistants), han mejorado las interfaces de usuario y son muy populares. Ahora se han convertido en teléfonos inteligentes. Eventualmente, la interfaz de escritura de la PDA fue perfeccionada por Jeff Hawkins, que había creado una empresa llamada Palm para desarrollar un PDA de bajo costo para el mercado de consumo masivo. Hawkins era un ingeniero eléctrico por el entrenamiento, pero él tenía un interés agudo en la neurociencia, que es el estudio del cerebro humano. Se dio cuenta de que el reconocimiento de escritura a mano podría hacerse más fiable mediante la formación de los usuarios a escribir de una manera que era más fácil de leer por los ordenadores, una técnica de entrada que llamó "Graffiti." Se requiere una pequeña cantidad de entrenamiento para el usuario, El final que llevó a una escritura más rápida y más fiable, y el primer Palm PDA, llamado Palm Pilot, fue un gran éxito. El graffiti es uno de los grandes éxitos en la informática, demostrando el poder de la mente humana para aprovechar el poder de la mente humana. Los usuarios de PDA juraron por los dispositivos, religiosamente los utilizan para administrar sus horarios y contactos. Cuando los teléfonos celulares comenzaron a ganar popularidad a principios de los años noventa, IBM saltó a la oportunidad de integrar el teléfono celular con el PDA, creando el '' teléfono inteligente. '' El primer smartphone, llamado Simon, utilizó una pantalla táctil para la entrada. Usuario todas las capacidades de un PDA más el teléfono, los juegos, y el email. La reducción de los tamaños de los componentes y el costo eventualmente llevó al amplio uso de los teléfonos inteligentes, incorporado en el popular iPhone de Apple y las plataformas Google Android. Pero incluso los PDA y los smartphones no son realmente revolucionarios. Aún más importantes son las computadoras "invisibles", que están incrustadas en aparatos, relojes, tarjetas bancarias y muchos otros dispositivos (Bechini et al., 2004). Estos procesadores permiten una mayor funcionalidad y un menor coste en una amplia variedad de aplicaciones. Si estos chips forman una verdadera generación es discutible (han estado alrededor desde los años 70), pero están revolucionando cómo los millares de aplicaciones y de otros dispositivos trabajan. Ya están empezando a tener un gran impacto en el mundo y su influencia aumentará rápidamente en los próximos años. Uno de los aspectos inusuales de estas computadoras incrustadas es que el hardware y el software a menudo están codificados (Henkel et al., 2003). Volveremos a ellos más adelante en este libro. Si vemos a la primera generación como máquinas de vacío (por ejemplo, ENIAC), la segunda generación como máquinas de transistores (por ejemplo, la IBM 7094), la tercera generación como máquinas de circuitos integrados (por ejemplo, IBM 360) y la cuarta Generación como computadoras personales (por ejemplo, las CPU Intel), la quinta generación real es más un cambio de paradigma que una nueva arquitectura específica. En el futuro, las computadoras estarán en todas partes e incrustadas en todo, incluso invisibles. Serán parte del marco de la vida cotidiana, abriendo puertas, encendiendo luces, dispensando dinero y haciendo miles de otras cosas. Este modelo, ideado por Mark Weiser, fue originalmente llamado computación ubicua, pero el término computación omnipresente también se usa con frecuencia ahora (Weiser, 2002). Cambiará el mundo tan
profundamente como lo hizo la revolución industrial. No discutiremos más en este libro, pero para más información al respecto, véase Lyytinen y Yoo (2002), Saha y Mukherjee (2003) y Sakamura (2002).
1.3 EL COMPUTADOR ZOO En la sección anterior, dimos una breve historia de los sistemas informáticos. En esto veremos el presente y miraremos hacia el futuro. Aunque las computadoras personales son las computadoras más conocidas, hay otros tipos de máquinas en estos días, por lo que vale la pena tomar una breve mirada a qué más está ahí fuera. 1.3.1 Fuerzas Tecnológicas y Económicas La industria de la computación está avanzando como ninguna otra. La principal fuerza impulsora es la capacidad de los fabricantes de chips para empaquetar más y más transistores por chip cada año. Más transistores, que son pequeños conmutadores electrónicos, significa memorias más grandes y procesadores más potentes. Gordon Moore, cofundador y ex presidente de Intel, bromeó una vez que si la tecnología de la aviación había avanzado tan rápido como la tecnología informática, un avión costaría 500 dólares y rodearía la tierra en 20 minutos con 5 galones de combustible. Sin embargo, sería el tamaño de una caja de zapatos. Específicamente, mientras preparaba un discurso para un grupo de la industria, Moore notó que cada nueva generación de chips de memoria se estaba introduciendo 3 años después de la anterior. Dado que cada nueva generación tenía cuatro veces más memoria que su predecesora, se dio cuenta de que el número de transistores en un chip estaba aumentando a un ritmo constante y predijo que este crecimiento continuaría durante décadas. Esta observación se ha conocido como la ley de Moore. Hoy en día, la ley de Moore se expresa a menudo como la duplicación del número de transistores cada 18 meses. Tenga en cuenta que esto es equivalente a alrededor de un aumento del 60 por ciento en la cuenta de transistores por año. Los tamaños de los chips de memoria y sus fechas de introducción mostrados en la Fig. 1-8 confirman que la ley de Moore se ha mantenido durante más de cuatro décadas. Por supuesto, la ley de Moore no es una ley en absoluto, sino simplemente una observación empírica sobre la rapidez con que los físicos de estado sólido y los ingenieros de procesos están avanzando en el estado del arte, y una predicción de que continuarán en el mismo ritmo en el futuro. Algunos observadores de la industria esperan que la ley de Moore continúe manteniendo durante al menos otra década, tal vez más. Otros observadores esperan que la disipación de energía, la fuga de corriente y otros efectos se inicien más temprano y causen serios problemas que necesitan ser resueltos (Bose, 2004, Kim et al., 2003). Sin embargo, la realidad de la contracción de los transistores es que el grosor de estos dispositivos es pronto para ser sólo unos pocos átomos. En ese punto los transistores consistirán en muy pocos átomos para ser confiables, o simplemente llegaremos a un punto en el que el tamaño disminuya requerirá bloques de construcción subatómicos. (Como un buen consejo, se recomienda que cualquier persona que trabaja en una planta de fabricación de silicio tomar el día libre en el día en que deciden dividir el transistor de un átomo!) A pesar de los muchos desafíos en la extensión de las tendencias de la ley de Moore, Incluyendo los avances en la computación cuántica (Oskin et al., 2002) y los nanotubos de carbono (Heinze et al., 2002) que pueden crear oportunidades para escalar la electrónica más allá de los límites del silicio.
La ley de Moore ha creado lo que los economistas llaman un círculo virtuoso. Los avances en tecnología (transistores / chip) conducen a mejores productos ya precios más bajos. Los precios más bajos conducen a nuevas aplicaciones (nadie hacía videojuegos para ordenadores cuando las computadoras cuestan 10 millones de dólares cada uno, aunque cuando el precio cayó a 120.000 dólares). Las nuevas aplicaciones conducen a nuevos mercados y nuevas empresas que surgen para aprovecharlas. La existencia de todas estas empresas lleva a la competencia, lo que a su vez genera la demanda económica de mejores tecnologías con las que vencer a los demás. El círculo es entonces redondo. Otro factor que impulsa la mejora tecnológica es la primera ley de software de Nathan (debido a Nathan Myhrvold, ex ejecutivo de Microsoft). Dice: "El software es un gas. Se expande para llenar el contenedor que lo sostiene. "En la década de 1980, el procesamiento de textos se hizo con programas como troff (todavía usado para este libro). Troff ocupa kilobytes de memoria. Los procesadores de texto modernos ocupan muchos megabytes de memoria. Futuros sin duda requerirán gigabytes de memoria. (A una primera aproximación, los prefijos kilo, mega, giga y tera significan mil, millones, billones y trillones, respectivamente, pero vea Sec. 1.5 para más detalles.) Software que sigue adquiriendo características (no a diferencia de los barcos que continúan Adquirir barnacles) crea una demanda constante de procesadores más rápidos, memorias más grandes y más capacidad de E / S. Si bien las ganancias en los transistores por chip han sido dramáticas a lo largo de los años, las ganancias en otras tecnologías informáticas no han sido menos. Por ejemplo, el IBM PC / XT se introdujo en 1982 con un disco duro de 10 megabytes. Treinta años después, los discos duros de 1 TB son comunes en los sucesores del PC / XT. Esta mejora de cinco órdenes de magnitud en 30 años representa un aumento anual de la capacidad de casi 50 por ciento. Sin embargo, medir la mejora del disco es más complicado, ya que hay otros parámetros además de la capacidad, como la velocidad de datos, buscar tiempo y precio. Sin embargo, casi cualquier métrica mostrará que la relación precio / rendimiento ha aumentado desde 1982 en alrededor del 50 por ciento al año. Estas enormes ganancias en el rendimiento del disco, junto con el hecho de que el volumen de dólares de los discos enviados desde Silicon Valley ha superado a los chips de la CPU, llevó a Al Hoagland a sugerir que el lugar se llamaba mal: debería haber sido llamado Iron Oxide Valley Este es el medio de grabación utilizado en los discos). Poco a poco esta tendencia está cambiando de nuevo en favor del silicio, ya que las memorias flash basadas en silicio han comenzado a reemplazar los discos tradicionales giratorios en muchos sistemas.
Otra área que ha visto avances espectaculares ha sido la telecomunicación y la creación de redes. En menos de dos décadas, hemos pasado de módems de 300 bit / seg a módems analógicos a 56.000 bits / seg a redes de fibra óptica a 1012 bits / s. Los cables telefónicos transatlánticos de fibra óptica, como TAT-12/13, cuestan unos 700 millones de dólares, duran 10 años y pueden transportar 300.000 llamadas simultáneas, lo que equivale a menos de 1 centavo para una llamada intercontinental de 10 minutos. Se ha demostrado que son factibles sistemas de comunicación óptica que funcionan a 1012 bits / seg en distancias superiores a 100 km sin amplificadores. El crecimiento exponencial de Internet no necesita comentarios aquí. 1.3.2 El espectro de la computadora Richard Hamming, ex investigador de Bell Labs, observó una vez que un cambio de un orden de magnitud en cantidad causa un cambio en la calidad. Por lo tanto, un coche de carreras que puede ir 1000 km / hora en el desierto de Nevada es un tipo de máquina fundamentalmente diferente de un coche normal que va 100 km / hora en una carretera. Del mismo modo, un rascacielos de 100 pisos no es sólo un edificio de apartamentos de 10 pisos ampliado. Y con las
computadoras, no estamos hablando de factores de 10, pero en el transcurso de cuatro décadas, los factores de un millón. Los beneficios obtenidos por la ley de Moore pueden ser utilizados por los vendedores de chips de varias maneras diferentes. Una forma es construir computadoras cada vez más potentes a un precio constante. Otro enfoque es construir la misma computadora por cada vez menos dinero cada año. La industria de la informática ha hecho tanto de estos y más, por lo que una gran variedad de equipos están disponibles ahora. En la Fig. 1 se muestra una categorización muy aproximada de los ordenadores actuales. 1-9. En las secciones siguientes examinaremos cada una de estas categorías y discutiremos brevemente sus propiedades. 1.3.3 Computadoras Desechables En el extremo inferior, encontramos fichas individuales pegadas al interior de las tarjetas de felicitación para jugar "Feliz Cumpleaños", "Aquí viene la novia", o alguna canción igual de terrible. Los autores aún no han visto una tarjeta de condolencia que juega un canto fúnebre, pero después de haber lanzado esta idea al dominio público, lo esperamos en breve. Para cualquier persona que haya crecido con computadoras multimillonarias, la idea de computadoras desechables hace tanto sentido como el avión desechable. Sin embargo, las computadoras desechables están aquí para quedarse. Probablemente el desarrollo más importante en el área de las computadoras desechables es el chip RFID (Radio Frequency IDentification). Ahora es posible fabricar, por unos pocos centavos, chips RFID sin batería de menos de 0,5 mm en el borde que contienen un pequeño transpondedor de radio y un número integrado único de 128 bits. Cuando son pulsados desde una antena externa, son alimentados por la señal de radio entrante lo suficiente para transmitir su número a la antena. Mientras que las virutas son minúsculas, sus implicaciones no son ciertamente. Comencemos con una aplicación mundana: la eliminación de códigos de barras de los productos. Ya se han realizado ensayos experimentales en los que los productos en las tiendas tienen chips RFID (en lugar de códigos de barras) conectados por el fabricante. Los clientes seleccionan sus productos, los ponen en un carro de la compra, y apenas los ruedan fuera de la tienda, contorneando el contador de la comprobación. A la salida de la tienda, un lector con una antena envía una señal pidiendo a cada producto que se identifique, lo que hace por una transmisión inalámbrica corta. Los clientes también son identificados por fichas en su tarjeta de débito o de crédito. Al final del mes, la tienda envía a cada cliente una factura detallada para las compras de este mes. Si el cliente no tiene un banco o tarjeta de crédito RFID válido, se emite una alarma. No sólo este sistema elimina la necesidad de cajeros y la correspondiente espera en línea, sino que también sirve como un sistema antirrobo, porque ocultar un producto en un bolsillo o bolsa no tiene ningún efecto. Una propiedad interesante de este sistema es que mientras los códigos de barras identifican el tipo de producto, no identifican el elemento específico. Con 128 bits disponibles, los chips RFID lo hacen. Como consecuencia, cada paquete de, digamos, aspirinas, en un estante de supermercado tendrá un código RFID diferente. Esto significa que si un fabricante de medicamentos descubre un defecto de fabricación en un lote de aspirinas después de haber sido enviados, se puede decir a los supermercados de todo el mundo que suenen la alarma cuando un cliente compra un paquete cuyo número RFID se encuentra en el rango afectado. Si la compra ocurre en un país lejano meses después. Las aspirinas que no estén en el lote defectuoso no sonarán la alarma.
Pero el etiquetado de paquetes de aspirinas, galletas y galletas de perro es sólo el comienzo. ¿Por qué dejar de etiquetar las galletas de perro cuando se puede etiquetar al perro? Los dueños
de mascotas ya están pidiendo a los veterinarios que implanten chips RFID en sus animales, permitiéndoles ser rastreados si son robados o perdidos. Los agricultores también quieren que su ganado sea etiquetado. El siguiente paso obvio es que los padres nerviosos pidan a su pediatra que implante chips RFID en sus hijos en caso de que sean robados o perdidos. Mientras estamos en ello, ¿por qué no tener hospitales ponerlos en todos los recién nacidos para evitar confusiones en el hospital? Los gobiernos y la policía sin duda piensan en muchas buenas razones para seguir a todos los ciudadanos todo el tiempo. A estas alturas, las "implicaciones" de los chips RFID aludidos anteriormente podrían estar un poco más claras. Otra aplicación (ligeramente menos controvertida) de chips RFID es el seguimiento de vehículos. Cuando una cadena de vagones de ferrocarril con chips RFID embebidos pasa por un lector, la computadora conectada al lector entonces tiene una lista de qué coches pasaron. Este sistema hace fácil seguir la localización de todos los coches del ferrocarril, que ayuda a abastecedores, a sus clientes, ya los ferrocarriles. Un esquema similar puede aplicarse a los camiones. Para los automóviles, la idea ya se está utilizando para recoger peajes electrónicamente (por ejemplo, el sistema E-Z Pass). Los sistemas de equipaje de aerolíneas y muchos otros sistemas de transporte de paquetes también pueden usar chips RFID. Un sistema experimental probado en el aeropuerto de Heathrow en Londres permitió a los pasajeros que llegaban a retirar los lugging de su equipaje. Las bolsas transportadas por pasajeros que compraban este servicio fueron etiquetadas con chips RFID, encaminadas separadamente dentro del aeropuerto y entregadas directamente a los hoteles de los pasajeros. Otros usos de los chips RFID incluyen que los automóviles que llegan a la estación de pintura de la línea de montaje especifican qué color se supone que son, el estudio de las migraciones de animales, la ropa que dicen a la lavadora qué temperatura usar y muchos más. Algunos chips se pueden integrar con sensores para que los bits de orden inferior puedan contener la temperatura, la presión, la humedad u otras variables ambientales actuales. Los chips RFID avanzados también contienen almacenamiento permanente. Esta capacidad llevó al Banco Central Europeo a tomar la decisión de poner chips RFID en billetes en euros en los próximos años. Los chips registrarían donde han estado. Esto no sólo haría prácticamente imposible la falsificación de billetes en euros, sino que haría mucho más fácil rastrear los rescates de secuestros, el botín de los robos y el dinero blanqueado, y posiblemente invalidarlos remotamente. Cuando el dinero en efectivo ya no es anónimo, el procedimiento policial estándar en el futuro puede ser comprobar dónde ha estado el dinero del sospechoso recientemente. ¿Quién necesita implantar chips en las personas cuando sus carteras están llenas de ellos? Una vez más, cuando el público aprende acerca de lo que los chips RFID pueden hacer, es probable que haya alguna discusión pública sobre el asunto. La tecnología utilizada en chips RFID se está desarrollando rápidamente. Los más pequeños son pasivos (no están alimentados internamente) y son capaces de transmitir solamente sus números únicos cuando son consultados. Sin embargo, los más grandes son activos, pueden contener una batería pequeña y una computadora primitiva, y son capaces de hacer algunos cálculos. Las tarjetas inteligentes utilizadas en las transacciones financieras pertenecen a esta categoría. Los chips RFID difieren no sólo en ser activos o pasivos, sino también en el rango de frecuencias de radio a los que responden. Aquellos que operan a bajas frecuencias tienen una velocidad de datos limitada pero pueden ser detectados a grandes distancias de la antena. Aquellos que operan en frecuencias altas tienen una velocidad de datos más alta y un rango más corto. Los chips también difieren en otras formas y se están mejorando todo el tiempo. El Internet está lleno de información sobre chips RFID, con www.rfid.org siendo un buen punto de partida. 1.3.4 Microcontroladores
A continuación de la escalera tenemos computadoras que están incrustadas dentro de dispositivos que no se venden como computadoras. Los ordenadores integrados, a veces llamados microcontroladores, administran los dispositivos y manejan la interfaz de usuario. Los microcontroladores se encuentran en una gran variedad de dispositivos diferentes, incluyendo los siguientes. Algunos ejemplos de cada categoría se indican entre paréntesis. 1.Electrodomésticos (radio despertador, lavadora, secadora, microondas, alarma antirrobo). 2. Equipo de comunicaciones (teléfono inalámbrico, teléfono celular, fax, buscapersonas). 3. Periféricos de computadora (impresora, escáner, módem, unidad de CD-ROM). 4. Dispositivos de entretenimiento (VCR, DVD, estéreo, reproductor de MP3, decodificador). 5. Dispositivos de imagen (TV, cámara digital, videocámara, lente, fotocopiadora). 6. Dispositivos médicos (rayos X, resonancia magnética, monitor cardíaco, termómetro digital). 7. Sistemas de armas militares (misiles de crucero, ICBM, torpedos). 8. Dispositivos de compras (máquina expendedora, cajero automático, caja registradora). 9. Juguetes (muñeca que habla, consola de juegos, coche o barco radiocontrolado). Un coche puede contener fácilmente 50 microcontroladores, corriendo los subsistemas incluyendo los frenos antibloqueo, la inyección de combustible, la radio, las luces, y el GPS. Un avión de reacción puede tener 200 o más. Una familia podría poseer fácilmente varios cientos de computadoras sin siquiera saberlo. En pocos años, prácticamente todo lo que funciona con electricidad o baterías contendrá un microcontrolador. El número de microcontroladores que se venden cada año es menor que el de todos los demás tipos de ordenadores, excepto ordenadores desechables por órdenes de magnitud. Mientras que los chips RFID son sistemas mínimos, los microcontroladores son computadoras pequeñas pero completas. Cada microcontrolador tiene un procesador, memoria y capacidad de E / S. La capacidad de E / S normalmente incluye detectar los botones e interruptores del dispositivo y controlar las luces, la pantalla, el sonido y los motores del dispositivo. En la mayoría de los casos, el software está incorporado en el chip en forma de una memoria de sólo lectura creada cuando se fabrica el microcontrolador. Los microcontroladores vienen en dos tipos generales: propósito general y propósito especial. Las primeras son computadoras pequeñas, pero ordinarias; Estos últimos tienen una arquitectura y conjunto de instrucciones ajustadas a alguna aplicación específica, como multimedia. Los microcontroladores vienen en versiones de 4 bits, 8 bits, 16 bits y 32 bits. Sin embargo, incluso los microcontroladores de uso general difieren de los PC estándar de maneras importantes. En primer lugar, son extremadamente sensibles a los costos. Una compañía que compra millones de unidades puede tomar la decisión basándose en una diferencia de precio de 1 centavo por unidad. Esta restricción lleva a los fabricantes a hacer elecciones arquitectónicas basadas en mucho más en los costes de fabricación, un criterio menos dominante en chips que cuestan cientos de dólares. Los precios de los microcontroladores varían mucho dependiendo de cuántos bits son anchos, cuánto y qué tipo de memoria tienen, y otros factores. Para tener una idea, un microcontrolador de 8 bits comprado en un volumen suficientemente grande probablemente puede ser tenido por tan poco como 10 centavos por unidad. Este precio es lo que hace posible poner una computadora dentro de una radio reloj de $ 9.95. En segundo lugar, prácticamente todos los microcontroladores operan en tiempo real. Obtienen un estímulo y se espera que den
una respuesta instantánea. Por ejemplo, cuando el usuario presiona un botón, a menudo se enciende una luz, y no debe haber ningún retraso entre el botón que se presiona y la luz que se enciende. La necesidad de operar en tiempo real a menudo tiene impacto en la arquitectura. En tercer lugar, los sistemas embebidos a menudo tienen restricciones físicas en términos de tamaño, peso, consumo de batería y otros límites eléctricos y mecánicos. Los microcontroladores utilizados en ellos tienen que ser diseñados teniendo en cuenta estas restricciones. Una aplicación particularmente divertida de los microcontroladores está en la plataforma de control incrustada de Arduino. Arduino fue diseñado por Massimo Banzi y David Cuartielles en Ivrea, Italia. Su objetivo para el proyecto era producir una plataforma computarizada completa que cuesta menos que una pizza grande con coberturas extra, haciéndola fácilmente accesible a estudiantes y aficionados. (Esta fue una tarea difícil, porque hay un exceso de pizzas en Italia, por lo que son realmente baratos.) Lograron su objetivo así: un sistema completo de Arduino cuesta menos de 20 dólares de EE.UU. El sistema Arduino es un diseño de hardware de código abierto, lo que significa que todos sus detalles son publicados y gratuitos para que cualquiera pueda construir (e incluso vender) un sistema Arduino. Se basa en el microcontrolador Atmel AVR de 8 bits RISC, y la mayoría de los diseños de placa también incluyen soporte básico de E / S. La placa se programa utilizando un lenguaje de programación integrado llamado Wiring que ha incorporado todas las campanas y silbidos necesarios para controlar dispositivos en tiempo real. Lo que hace que la plataforma Arduino sea divertida de usar es su comunidad de desarrollo grande y activa. Hay miles de proyectos publicados usando el Arduino, que van desde un sniffer contaminante electrónico, a una chaqueta de ciclismo con señales de giro, un detector de humedad que envía correo electrónico cuando una planta necesita ser regada, y un avión autónomo no tripulado. Para obtener más información sobre el Arduino y ensuciarse las manos en sus propios proyectos Arduino, vaya a www.arduino.cc. 1.3.5 Ordenadores portátiles y de juegos Un paso hacia arriba son las plataformas móviles y máquinas de videojuegos. Son computadoras normales, a menudo con gráficos especiales y capacidad de sonido, pero con software limitado y poca extensibilidad. Comenzaron como CPU de gama baja para teléfonos simples y juegos de acción como ping-pong en televisores. A lo largo de los años han evolucionado hasta convertirse en sistemas mucho más poderosos, rivalizando o incluso superando a los ordenadores personales en ciertas dimensiones. Para tener una idea de lo que hay dentro de estos sistemas, considere las especificaciones de tres productos populares. En primer lugar, la Sony PlayStation 3. Contiene una CPU propietaria multinúcleo de 3.2 GHz (denominada microprocesador Cell), que se basa en la CPU IBM PowerPC RISC y siete elementos de procesamiento sinérgico (SPE) de 128 bits. La PlayStation 3 también contiene 512 MB de RAM, un chip gráfico Nvidia de 550 MHz y un reproductor de Blu-ray. En segundo lugar, Microsoft Xbox 360. Contiene una CPU PowerPC de triple núcleo de 3,2 GHz de IBM con 512 MB de RAM, un chip gráfico ATI de 500 MHz, un reproductor de DVD y un disco duro. En tercer lugar, el Samsung Galaxy Tablet (en la que este libro fue corregido). Contiene dos núcleos ARM de 1 GHz, una unidad de procesamiento gráfico (integrada en el sistema Nvidia Tegra 2 en un chip), 1 GB de RAM, cámaras duales, un giroscopio de 3 ejes y almacenamiento de memoria flash. Si bien estas máquinas no son tan potentes como las computadoras personales de gama alta producidas en el mismo período de tiempo, no están tan lejos, y en algunos aspectos están por delante (por ejemplo, la SPE de 128 bits en la PlayStation 3 es más ancha que La CPU en cualquier PC). La principal diferencia entre estas máquinas y una PC no es tanto la CPU como lo son sus sistemas cerrados. Los usuarios no pueden expandirlos con tarjetas plug-in, aunque a veces se proporcionan interfaces USB o FireWire. Además, y tal vez lo más importante, estas plataformas se optimizan cuidadosamente para
algunos dominios de aplicación: aplicaciones altamente interactivas con gráficos 3D y salida multimedia. Todo lo demás es secundario. Estas restricciones de hardware y software, la falta de extensibilidad, las memorias pequeñas, la ausencia de un monitor de alta resolución y el disco duro pequeño (o en algún momento ausente) hacen posible construir y vender estas máquinas más barato que las computadoras personales. A pesar de estas restricciones, millones de estos dispositivos se han vendido y sus números están creciendo todo el tiempo. Las computadoras móviles tienen el requisito adicional de que utilizan la menor energía posible para realizar sus tareas. Cuanta menos energía utilicen, más tiempo durará su batería. Esta es una tarea de diseño desafiante porque las plataformas móviles como las tabletas y los teléfonos inteligentes deben ser frugales en su uso de energía, pero al mismo tiempo, los usuarios de estos dispositivos esperan capacidades de alto rendimiento, como gráficos 3D, procesamiento multimedia de alta definición y juego de azar.
1.3.6 Ordenadores personales A continuación, llegamos a los ordenadores personales que la mayoría de la gente piensa cuando escuchan el término "computadora". Estos incluyen modelos de computadoras de escritorio y portátiles. Por lo general vienen con unos pocos gigabytes de memoria, un disco duro con capacidad de terabytes de datos, una unidad de CD-ROM / DVD / Blu-ray, tarjeta de sonido, interfaz de red, monitor de alta resolución y otros periféricos. Tienen sistemas operativos elaborados, muchas opciones de expansión y una amplia gama de software disponible. El corazón de cada computadora personal es una placa de circuito impreso en la parte inferior o lateral de la caja. Normalmente contiene la CPU, la memoria, varios dispositivos de E / S (como un chip de sonido y posiblemente un módem), así como interfaces para el teclado, el ratón, el disco, la red, etc., y algunas ranuras de expansión. Una foto de una de estas placas de circuitos se da en la Fig. 1-10. Los ordenadores portátiles son básicamente PCs en un paquete más pequeño. Utilizan los mismos componentes de hardware, pero fabricados en tamaños más pequeños. También ejecutan el mismo software que las PC de escritorio. Dado que la mayoría de los lectores probablemente están bastante familiarizados con computadoras personales y portátiles, no se necesita material introductorio adicional. Otra variante en este tema es el tablet, como el popular iPad. Estos dispositivos son sólo PCs normales en un paquete más pequeño, con un disco de estado sólido en lugar de un disco duro giratorio, una pantalla táctil y una CPU diferente de la x86. Pero desde una perspectiva arquitectónica, las tabletas son sólo portátiles con un factor de forma diferente.