Universidad Nororiental Privada “Gran Mariscal de Ayacucho” Facultad de Ingeniería Escuela: Ingeniería Núcleo Barcelona
Facilitador: Meudi Galindo
Realizado por: Hernández, Aida Salazar, Johan
Junio; 2014
Introducción La Inteligencia Artificial es un área multidisciplinaria que, a través de ciencias como la informática, la informática, la la lógica lógica y la filosofía, la filosofía, estudia estudia la creación y diseño de entidades capaces de razonar por sí mismas utilizando como paradigma la inteligencia humana. Tan general y amplio como eso, es que reúne varios campos (robótica, sistemas expertos, por ejemplo), todos los cuales tienen en común la creación de máquinas que pueden pensar. En ciencias de la computación se denomina inteligencia artificial a la capacidad de razonar de un agente no vivo. John McCarthy acuñó la expresión «inteligencia artificial» en 1956, y la definió así: “Es la ciencia e ingenio de
hacer
máquinas
inteligentes,
especialmente
programas
de
cómputo
inteligentes” inteligentes”. Aunque la inteligencia artificial mejoraría de muchísimas formas la vida del ser humano, por encima de los indudables beneficios que se pueden obtener de una tecnología inteligente, los riesgos a los que ésta enfrentará a la raza humana son impredecibles. El verdadero peligro de la I.A. no es que ésta sea autónoma y tenga mayores capacidades que el cerebro humano en cuestiones de fría logística. Esto ya casi es un hecho y, además, los humanos se bastan por sí mismos para ponerse en peligro. El auténtico problema vendrá cuando la I.A. sea capaz de mejorarse a sí misma y desarrollarse sin que humano alguno sepa, no ya de las consecuencias posibles de tal desarrollo, sino del funcionamiento mismo de una tecnología que se inventa a sí misma a tiempo real. Eso es la singularidad de la que habla la cibernética. El punto en que el ser humano dejará de ser la inteligencia dominante; el punto en que la criatura superará a su creador. Por todo lo anterior se desarrolla esta investigación cuyo objetivo general es Determinar las consecuencias de la Inteligencia Artificial para el ser humano y su entorno debido a sus constantes avances, a su vez de establecen los siguientes
Introducción La Inteligencia Artificial es un área multidisciplinaria que, a través de ciencias como la informática, la informática, la la lógica lógica y la filosofía, la filosofía, estudia estudia la creación y diseño de entidades capaces de razonar por sí mismas utilizando como paradigma la inteligencia humana. Tan general y amplio como eso, es que reúne varios campos (robótica, sistemas expertos, por ejemplo), todos los cuales tienen en común la creación de máquinas que pueden pensar. En ciencias de la computación se denomina inteligencia artificial a la capacidad de razonar de un agente no vivo. John McCarthy acuñó la expresión «inteligencia artificial» en 1956, y la definió así: “Es la ciencia e ingenio de
hacer
máquinas
inteligentes,
especialmente
programas
de
cómputo
inteligentes” inteligentes”. Aunque la inteligencia artificial mejoraría de muchísimas formas la vida del ser humano, por encima de los indudables beneficios que se pueden obtener de una tecnología inteligente, los riesgos a los que ésta enfrentará a la raza humana son impredecibles. El verdadero peligro de la I.A. no es que ésta sea autónoma y tenga mayores capacidades que el cerebro humano en cuestiones de fría logística. Esto ya casi es un hecho y, además, los humanos se bastan por sí mismos para ponerse en peligro. El auténtico problema vendrá cuando la I.A. sea capaz de mejorarse a sí misma y desarrollarse sin que humano alguno sepa, no ya de las consecuencias posibles de tal desarrollo, sino del funcionamiento mismo de una tecnología que se inventa a sí misma a tiempo real. Eso es la singularidad de la que habla la cibernética. El punto en que el ser humano dejará de ser la inteligencia dominante; el punto en que la criatura superará a su creador. Por todo lo anterior se desarrolla esta investigación cuyo objetivo general es Determinar las consecuencias de la Inteligencia Artificial para el ser humano y su entorno debido a sus constantes avances, a su vez de establecen los siguientes
objetivos específicos: Indagar sobre el origen y primeros pasos de la Inteligencia Artificial, Identificar las categorías de la Inteligencia Artificial, Determinar las últimas innovaciones en la Inteligencia Artificial, Estimar los cambios que podría sufrir la
vida y el entorno del ser humano debido a la Inteligencia Inteligencia Artificial y
Analizar los riesgos del avance de la Inteligencia Artificial para la humanidad. La metodología y terminología de la IA está todavía en vías de desarrollo. La IA se está dividiendo y encontrando otros campos relacionados: lógica, redes neuronales, programación orientada a objetos, lenguajes formales, robótica, etc. Esto explica por qué el estudio de IA no está confinado a la matemática, ciencias de la computación, ingeniería (particularmente la electrónica y la mecánica), o a la ciencia cognoscitiva, sino que cada una de estas disciplinas es un potencial contribuyente. La robótica es considerada como un campo interdisciplinario que combina conceptos y técnicas de IA, con ingeniería óptica, electrónica y mecánica. En este orden de ideas conocer la consecuencias que puede ocasionar la inteligencia artificial en el ser humano es de suma importancia para poder llevar una voz de alerta sobre las repercusiones positivas y negativas a las que conllevaría este hecho, por otro lado al ser un tema muy conocido pero poco estudiado, esta investigación sentará un precedente teórico sobre los puntos mas importantes en un tema tan actual e importante, ya que en el futuro, será la Inteligencia Artificial, la encargada de realizar la mayoría de las labores del ser humano. La metodología utilizada es de tipo documental, ya que como lo indica Arias, F. (1999) “Es aquella que se basa en la obtención y análisis de datos p rovenientes de materiales impresos u otros tipo de documentos”. Esta investigación es documental ya que fueron consultados diversos documentos y bibliografía para desarrollar la fundamentación teórica necesaria para la consecución de los objetivos planteados. Por otro lado para la realización de esta investigación se presentaron ciertas limitaciones, tales como: Falta de material bibliográfico en las bibliotecas de la
zona, además el material encontrado por internet en su mayoría debía ser comprado y su monto es en dólares, haciendo muy difícil su adquisición debido al problema cambiario existente en el país, a su vez los textos encontrados están en su mayoría en inglés. Como principal alcance de esta investigación está el adquirir más conocimientos sobre el tema y conocer los nuevos avances en cuanto a seguridad para aplicarlos a los equipos utilizados en el entorno.
¿Qué es la Inteligencia Artificial?
1 INDAGAR SOBRE EL ORIGEN Y PRIMEROS PASOS DE LA INTELIGENCIA ARTIFICIAL Se denomina inteligencia artificial (IA) a la rama de las Ciencias de la Computación dedicada al desarrollo de agentes racionales no vivos. En ciencias de la computación se denomina inteligencia artificial (IA) a la capacidad de razonar de un agente no vivo. John McCarthy, acuñó el término en 1956, la definió: "Es la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes.".
Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones posibles.
Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).
Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de animales y humanos).
Razonamiento mediante una lógica formal análogo al pensamiento abstracto humano.
También existen distintos tipos de percepciones y acciones, pueden ser obtenidas y producidas, respectivamente por sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y salidas de bits de un software y su entorno software. Se define tambien como aquella inteligencia exhibida por artefactos creados por humanos (es decir, artificial). A menudo se aplica hipotéticamente a los computadores. El nombre también se usa para referirse al campo de la investigación científica que intenta acercarse a la creación de tales sistemas. Debido a que la inteligencia artificial tuvo muchos padres no hay un consenso para definir ese concepto, pero podemos decir que la inteligencia artificial se encarga de modelar la inteligencia humana en sistemas computacionales. Puede decirse que la Inteligencia Artificial (IA) es una de las áreas más fascinantes y con más retos de las ciencias de la computación, en su área de ciencias cognoscitivas. Nació como mero estudio filosófico y razonistico de la inteligencia humana, mezclada con la inquietud del hombre de imitar la naturaleza circundante (como volar y nadar), hasta inclusive querer imitarse a sí mismo. Sencillamente, la Inteligencia Artificial busca el imitar la inteligencia humana. Obviamente no lo ha logrado todavía, al menos no completamente.
Historia de la Inteligencia Artificial El término "inteligencia artificial" fue acuñado formalmente en 1956 durante la conferencia de Darthmounth, más para entonces ya se había estado trabajando en ello durante cinco años en los cuales se había propuesto muchas definiciones distintas que en ningún caso habían logrado ser aceptadas totalmente por la comunidad
investigadora. La IA es una de las disciplinas más nuevas junto con la genética moderna. Los juegos matemáticos antiguos, como el de las Torres de Hanói (hacia el 3000 a. C.), muestran el interés por la búsqueda de un modo resolutor, capaz de ganar con los mínimos movimientos posibles. Las ideas más básicas se remontan a los griegos, antes de Cristo. Aristóteles (384-322 a. C.) fue el primero en describir un conjunto de reglas que describen una parte del funcionamiento de la mente para obtener conclusiones racionales, y Ctesibio de Alejandría (250 a. C.) construyó la primera máquina autocontrolada, un regulador del flujo de agua (racional pero sin razonamiento). En 1315 Ramon Llull en su libro Ars magna tuvo la idea de que el razonamiento podía ser efectuado de manera artificial. En 1847 George Boole estableció la lógica proposicional (booleana), mucho más completa que los silogismos de Aristóteles, pero aún algo poco potente. En 1879 Gottlob Frege extiende la lógica booleana y obtiene la Lógica de Primer Orden la cual cuenta con un mayor poder de expresión y es utilizada universalmente en la actualidad. En 1903 Lee De Forest inventa el triodo, también llamado bulbo o válvula de vacío. En 1936 Alan Turing diseña formalmente una Máquina universal que demuestra la viabilidad de un dispositivo físico para implementar cualquier cómputo formalmente definido. En 1937 Alan Turing publicó un artículo de bastante repercusión sobre los "Números Calculables", un artículo que estableció las bases teóricas para todas las ciencias de computación, y que puede considerarse el origen oficial de la informática teórica. En este artículo introdujo el concepto de Máquina de Turing, una entidad matemática abstracta que formalizó el concepto de algoritmo y resultó ser la precursora de las computadoras digitales. Podía conceptualmente leer instrucciones de una cinta de
papel perforada y ejecutar todas las operaciones críticas de un computador. El artículo fijó los límites de las ciencias de la computación porque demostró que no es posible resolver problemas con ningún tipo de computador. Con ayuda de su máquina, Turing pudo demostrar que existen problemas irresolubles, de los que ningún ordenador será capaz de obtener su solución, por lo que se le considera el padre de la teoría de la computabilidad. En 1940 Alan Turing y su equipo construyeron el primer computador electromecánico y en 1941 Konrad Zuse creó la primera computadora programable y el primer lenguaje de programación de alto nivel Plankalkül. Las siguientes máquinas más potentes, aunque con igual concepto, fueron la ABC y ENIAC. En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, el cual se considera el primer trabajo del campo, aun cuando todavía no existía el término. Los primeros avances importantes comenzaron a principios de los años 1950 con el trabajo de Alan Turing, a partir de lo cual la ciencia ha pasado por diversas situaciones. En 1950 Turing consolidó el campo de la inteligencia artificial con su artículo Computing Machinery and Intelligence, en el que propuso una prueba concreta para determinar si una máquina era inteligente o no, su famosa Prueba de Turing por lo que se le considera el padre de la Inteligencia Artificial. Años después Turing se convirtió en el adalid que quienes defendían la posibilidad de emular el pensamiento humano a través de la computación y fue coautor del primer programa para jugar ajedrez. En 1951 William Shockley inventa el transistor de unión. El invento hizo posible una nueva generación de computadoras mucho más rápidas y pequeñas. En 1955 Herbert Simon, Allen Newell y J.C. Shaw, desarrollan el primer lenguaje de programación orientado a la resolución de problemas, el IPL-11. Un año más tarde desarrollan el LogicTheorist, el cual era capaz de demostrar teoremas matemáticos.
En 1956 fue inventado el término inteligencia artificial por John McCarthy, Marvin Minsky y Claude Shannon en la Conferencia de Dartmouth, un congreso en el que se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años. En 1957 Newell y Simon continúan su trabajo con el desarrollo del General Problem Solver (GPS). GPS era un sistema orientado a la resolución de problemas. En 1958 John McCarthy desarrolla en el Instituto de Tecnología de Massachusetts (MIT) el LISP. Su nombre se deriva de LISt Processor. LISP fue el primer lenguaje para procesamiento simbólico. En 1959 Rosenblatt introduce el Perceptrón. A finales de los 50 y comienzos de la década del 60 Robert K. Lindsay desarrolla «Sad Sam», un programa para la lectura de oraciones en inglés y la inferencia de conclusiones a partir de su interpretación. En 1963 Quillian desarrolla las redes semánticas como modelo de representación del conocimiento. En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual era capaz de inferir conocimiento basado en información que se le suministra. Bobrow desarrolla STUDENT. A mediados de los años 60, aparecen los sistemas expertos, que predicen la probabilidad de una solución bajo un set de condiciones. Por ejemplo DENDRAL, iniciado en 1965 por Buchanan, Feigenbaum y Lederberg, el primer Sistema Experto, que asistía a químicos en estructuras químicas complejas euclidianas, MACSYMA, que asistía a ingenieros y científicos en la solución de ecuaciones matemáticas complejas. En 1968 Seymour Papert, Danny Bobrow y Wally Feurzeig desarrollan el lenguaje de programación LOGO.
Posteriormente entre los años 1968-1970 Terry Winograd desarrolló el sistema SHRDLU, que permitía interrogar y dar órdenes a un robot que se movía dentro de un mundo de bloques. En 1969 Alan Kay desarrolla el lenguaje Smalltalk en Xerox PARC y se publica en 1980. En 1973 Alain Colmenauer y su equipo de investigación en la Universidad de AixMarseille crean PROLOG (del francés PROgrammation en LOGique) un lenguaje de programación ampliamente utilizado en IA. En 1974 Edward Shortliffe escribe su tesis con MYCIN, uno de los Sistemas Expertos más conocidos, que asistió a médicos en el diagnóstico y tratamiento de infecciones en la sangre. En las décadas de 1970 y 1980, creció el uso de sistemas expertos, como MYCIN: R1/XCON,
ABRL,
PIP,
PUFF,
CASNET,
INTERNIST/CADUCEUS,
etc.
Algunos
permanecen hasta hoy (Shells) como EMYCIN, EXPERT, OPSS. En 1980 la historia se repitió con el desafío japonés de la quinta generación, que dio lugar al auge de los sistemas expertos pero que no alcanzó muchos de sus objetivos, por lo que este campo sufrió una nueva interrupción en los años noventa. En 1986 McClelland y Rumelhart publican Parallel Distributed Processing (Redes Neuronales). En 1987 Martin Fischles y Oscar Firschein describieron los atributos de un agente inteligente. Al intentar describir con un mayor ámbito (no sólo la comunicación) los atributos de un agente inteligente, la IA se ha expandido a muchas áreas que han creado ramas de investigación enormes y diferenciadas. Dichos atributos del agente inteligente son: 1. Tiene actitudes mentales tales como creencias e intenciones. 2. Tiene la capacidad de obtener conocimiento, es decir, aprender.
3. Puede resolver problemas, incluso particionando problemas complejos en otros más simples. 4. Entiende. Posee la capacidad de crearle sentido, si es posible, a ideas ambiguas o contradictorias. 5. Planifica, predice consecuencias, evalúa alternativas (como en los juegos de ajedrez) 6. Conoce los límites de sus propias habilidades y conocimientos. 7. Puede distinguir a pesar de las similitudes de las situaciones. 8. Puede ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando analogías. 9. Puede generalizar. 10. Puede percibir y modelar el mundo exterior. 11. Puede entender y utilizar el lenguaje y sus símbolos. Podemos entonces decir que la IA posee características humanas tales como el aprendizaje, la adaptación, el razonamiento, la autocorrección, el mejoramiento implícito, y la percepción modular del mundo. Así, podemos hablar ya no sólo de un objetivo, sino de muchos, dependiendo del punto de vista o utilidad que pueda encontrarse a la IA. En 1988 se establecen los lenguajes Orientados a Objetos. En los 90´s surgen los agentes inteligentes. En 1997 Garry Kasparov, campeón mundial de ajedrez, pierde ante la computadora autónoma Deep Blue. El programa Artificial Linguistic Internet Computer Entity (A.L.I.C.E.) ganó el premio Loebner al Chatbot más humano en 2000, 2001 y 2004, y en 2007 el programa Ultra Hal Assistant ganó el premio. En 2006 se celebró el aniversario con el Congreso en español 50 años de Inteligencia Artificial - Campus Multidisciplinar en Percepción e Inteligencia 2006.
En el año 2009 ya hay en desarrollo sistemas inteligentes terapéuticos que permiten detectar emociones para poder interactuar con niños autistas. En la actualidad se está tan lejos de cumplir la famosa prueba de Turing como cuando se formuló: Existirá Inteligencia Artificial cuando no seamos capaces de distinguir ent re un ser humano y un programa de computadora en una conversación a ciegas . Como anécdota, muchos de los investigadores sobre IA sostienen que «la inteligencia es un programa capaz de ser ejecutado independientemente de la máquina que lo ejecute, computador o cerebro»: En 2010 el programa Suzette ganó el premio Loebner. Algunos programas de inteligencia artificial gratuitos son Dr. Abuse, Alice, Paula SG, Virtual woman millenium En el año 2011 IBM desarrolló una supercomputadora llamada Watson , la cual ganó una ronda de tres juegos seguidos de Jeopardy, venciendo a sus dos máximos campeones, y ganando un premio de 1 millón de dólares que IBM luego donó a obras de caridad. Existen personas que al dialogar sin saberlo con un chatbot no se percatan de hablar con un programa, de modo tal que se cumple la prueba de Turing como cuando se formuló: «Existirá Inteligencia Artificial cuando no seamos capaces de distinguir entre un ser humano y un programa de computadora en una conversación a ciegas». Como anécdota, muchos de los investigadores sobre IA sostienen que «la inteligencia es un programa capaz de ser ejecutado independientemente de la máquina que lo ejecute, computador o cerebro».
Máquina de Turing Una
máquina
dispositivo
que
de
Turing
manipula
es
un
símbolos
sobre una tira de cinta de acuerdo a una tabla de reglas. A pesar de su simplicidad, una máquina de Turing puede ser adaptada para simular la lógica de cualquier algoritmo de computador y es particularmente útil en la explicación de las funciones de un CPU dentro de un computador. La máquina de Turing fue descrita por Alan Turing como una «máquina automática» en 1936 en la revista Proceedings of the London Mathematical Society , La máquina de Turing no está diseñada como una tecnología de computación práctica, sino como un dispositivo hipotético que representa una máquina de computación. Las máquinas de Turing ayudan a los científicos a entender los límites del cá lculo mecánico. Turing dio una definición sucinta del experimento en su ensayo de 1948, «Máquinas inteligentes». Refiriéndose a su publicación de 1936, Turing escribió que la máquina de Turing, aquí llamada una máquina de computación lógica, consistía en: ...una ilimitada capacidad de memoria obtenida en la forma de una cinta infinita marcada con cuadrados, en cada uno de los cuales podría imprimirse un símbolo. En cualquier momento hay un símbolo en la máquina; llamado el símbolo leído. La máquina puede alterar el símbolo leído y su comportamiento está en parte determinado por ese símbolo, pero los símbolos en otros lugares de la cinta no afectan el comportamiento de la máquina. Sin embargo, la cinta se puede mover hacia adelante y hacia atrás a través de la máquina, siendo esto una de las operaciones elementales de la máquina. Por lo tanto cualquier símbolo en la cinta puede tener finalmente una oportunidad. (Turing 1948, p. 61) Una máquina de Turing que es capaz de simular cualquier otra máquina de Turing es llamada una máquina universal de Turing (UTM, o simplemente una máquina universal). Una definición más matemáticamente orientada, con una similar naturaleza "universal", fue presentada por Alonzo Church, cuyo trabajo sobre el cálculo lambda se entrelaza con el de Turing en una formal teoría de la computación conocida como la tesis de Church-Turing. La tesis señala que las máquinas de Turing
de hecho capturan la noción informal de un método eficaz en la lógica y las matemáticas y proporcionan una precisa definición de un algoritmo o 'procedimiento mecánico'. Estudiando sus propiedades abstractas, la máquina de Turing produce muchas perspectivas en las ciencias de la computación y en la teoría de la complejidad.
Historia Alan Turing introdujo el concepto de máquina de Turing en el trabajo On computable numbers, with an application to the Entscheidungsproblem, publicado por la Sociedad Matemática de Londres en 1936, en el que se estudiaba la cuestión planteada por David Hilbert sobre si las matemáticas son decidibles, es decir, si hay un método definido que pueda aplicarse a cualquier sentencia matemática y que nos diga si esa sentencia es cierta o no. Turing ideó un modelo formal de computador, la máquina de Turing, y demostró que existían problemas que una máquina no podía resolver. Con este aparato extremadamente sencillo es posible realizar cualquier cómputo que un computador digital sea capaz de realizar. Mediante este modelo teórico y el análisis de la complejidad de los algoritmos, fue posible la categorización de problemas computacionales de acuerdo a su comportamiento, apareciendo así, el conjunto de problemas denominados P y NP, cuyas soluciones pueden encontrarse en tiempo polinómico por máquinas de Turing deterministas y no deterministas, respectivamente. Precisamente, la tesis de Church-Turing formulada por Alan Turing y Alonzo Church, de forma independiente a mediados del siglo XX caracteriza la noción informal de computabilidad con la computación mediante una máquina de Turing.3
La idea subyacente es el concepto de que una máquina de Turing puede verse como un autómata ejecutando un procedimiento efectivo definido formalmente, donde el espacio de memoria de trabajo es ilimitado, pero en un momento determinado sólo una parte finita es accesible.
Descripción informal
Aquí se muestra el estado interno (q 1) dentro del cabezal, y la ilustración describe la cinta como siendo infinita y lledada previamente con '0', el símbolo sirviendo como blanco. El estado completo del sistema (su configuración) consiste del estado interno, el contenido de las casillas sombreadas incluyendo el blanco leído el cabezal ("11B") y la posición del cabezal. La máquina de Turing modela matemáticamente a una máquina que opera mecánicamente sobre una cinta. En esta cinta hay símbolos que la máquina puede leer y escribir, uno a la vez, usando un cabezal lector/escritor de cinta. La operación está completamente determinada por un conjunto finito de instrucciones elementales como "en el estado 42, si el símbolo visto es 0, escribe un 1; Si el símbolo visto es 1, cambia al estado 17; en el estado 17, si el símbolo visto es 0, escribe un 1 y cambia al estado 6; etc". En el artículo original ("Sobre números computables con una aplicación al Entscheidungsproblem"), Turing no imagina un mecanismo, sino una persona a la que él llama la "computadora", quien ejecuta servilmente estas reglas mecánicas deterministas (o como Turing pone, "de una manera desganada"). Más precisamente, una máquina de Turing consta de:
1. Una cinta que se divide en celdas, una al lado de la otra. Cada celda contiene un símbolo de algún alfabeto finito. El alfabeto contiene un símbolo especial llamado blanco (aquí escrito como 'B') y uno o más símbolos adicionales. La cinta se supone que es arbitrariamente extensible hacia la izquierda y hacia la derecha, es decir, la máquina de Turing siempre es suministrada con tanta cinta como necesite para su computación. Las celdas que no se hayan escrito previamente se asumen que están rellenas con el símbolo blanco. En algunos modelos la cinta tiene un extremo izquierdo marcado con un símbolo especial; la cinta se extiende o es indefinidamente extensible hacia la derecha. 2. Un cabezal que puede leer y escribir símbolos en la cinta y mover la cinta a la izquierda y a la derecha una (y sólo una) celda a la vez. En algunos modelos el cabezal se mueve y la cinta es estacionaria. 3. Un registro de estado que almacena el estado de la máquina de Turing, uno de los estados finitos. Hay un especial estado inicial con que el registro de estado es iniciado. Turing escribe que estos estados reemplazan el "estado de la mente" en que ordinariamente estaría una persona realizando cálculos. 4. Una tabla finita de instrucciones (llamada ocasionalmente como tabla de acción o función de transición). Las instrucciones son usualmente 5-tuplas: qiaj→qi1aj1dk , (a veces 4-tuplas), que, dado el estado (qi) la máquina está actualmente en y el símbolo (aj) se está leyendo en la cinta (el símbolo actualmente debajo del cabezal) le indica a la máquina hacer lo siguiente en secuencia (para los modelos de 5-tupla): o
Borra o escribe un símbolo (reemplazando a j con aj1), y entonces
o
Mueve el cabezal (que es descrito por d k y puede tener los valores: 'L' para un paso a la izquierda, o 'R' para uno paso a la derecha, o 'N' para permanecer en el mismo lugar) y luego
o
Asume el mismo o un nuevo estado como prescrito (ve al estado q i1).
En los modelos de 4-tupla, son especificadas como instrucciones separadas: borrar o escribir un símbolo (a j1) y mover el cabezal a la izquierda o la derecha (dk ). Específicamente, la tabla indica a la máquina: (ia) borrar o escribir un
símbolo o (ib) mover el cabezal a la izquierda o a la derecha, y luego (ii) asumir el mismo o un nuevo estado, pero no las dos acciones (ia) y (ib) en la misma instrucción. En algunos modelos, si no hay ninguna entrada en la tabla para la actual combinación de símbolo y estado, la máquina se detendrá; otros modelos requieren que estén llenas todas las entradas. Note que cada parte de la máquina — su estado y colecciones de símbolos — y sus acciones — imprimir, borrar, movimiento de la cinta — es finito, discreto y distinguible; es la cantidad potencialmente ilimitada de cinta lo que le da una cantidad ilimitada de espacio de almacenamiento.
Definición formal Una máquina de Turing
es un modelo computacional que realiza una
lectura/escritura de manera automática sobre una entrada llamada cinta, generando una salida en esta misma. Este modelo está formado por un alfabeto de entrada y uno de salida, un símbolo especial llamado blanco (normalmente b,
o 0), un conjunto de estados finitos y un
conjunto de transiciones entre dichos estados. Su funcionamiento se basa en una función de transición, que recibe un estado inicial y una cadena de caracteres (la cinta, la cual puede ser infinita) pertenecientes al alfabeto de entrada. La máquina va leyendo una celda de la cinta en cada paso, borrando el símbolo en el que se encuentra posicionado su cabezal y escribiendo un nuevo símbolo perteneciente al alfabeto de salida, para luego desplazar el cabezal a la izquierda o a la derecha (solo una celda a la vez). Esto se repite según se indique en la función de transición, para finalmente detenerse en un estado final o de aceptación, representando así la salida. Una máquina de Turing con una sola cinta puede definirse como una 7-tupla
donde:
es un conjunto finito de estados. es un conjunto finito de símbolos distinto del espacio en blanco, denominado alfabeto de máquina o de entrada.
es un conjunto finito de símbolos de cinta, denominado alfabeto de cinta ( ).
es el estado inicial. es un símbolo denominado blanco, y es el único símbolo que se puede repetir un número infinito de veces.
es el conjunto de estados finales de aceptación. es una función parcial denominada función
de transición, donde
es un movimiento a la izquierda y
es el movimiento a
la derecha. Existen en la literatura un abundante número de definiciones alternativas, pero todas ellas tienen el mismo poder computacional, por ejemplo se puede añadir el símbolo como símbolo de "no movimiento" en un paso de cómputo. Funcionamiento
La máquina de Turing consta de un cabezal lector/escritor y una cinta infinita en la que el cabezal lee el contenido, borra el contenido anterior y escribe un nuevo valor. Las operaciones que se pueden realizar en esta máquina se limitan a:
Mover el cabezal lector/escritor hacia la derecha.
Mover el cabezal lector/escritor hacia la izquierda.
El cómputo se determina a partir de una tabla de estados de la forma: (estado, valor)
(nuevo estado, nuevo valor, dirección)
Esta tabla toma como parámetros el estado actual de la máquina y el carácter leído de la cinta, dando la dirección para mover el cabezal, el nuevo estado de la máquina y el valor a escribir en la cinta. La memoria es la cinta de la máquina que se divide en espacios de trabajo denominados celdas, donde se pueden escribir y leer símbolos. Inicialmente todas las celdas contienen un símbolo especial denominado "blanco". Las instrucciones que determinan el funcionamiento de la máquina tienen la forma, "si estamos en el estado x leyendo la posición y , donde hay escrito el símbolo z , entonces este símbolo debe ser reemplazado por este otro símbolo, y pasar a leer la celda siguiente, bien a la izquierda o bien a la derecha". La máquina de Turing puede considerarse como un autómata capaz de reconocer lenguajes formales. En ese sentido, es capaz de reconocer los lenguajes recursivamente enumerables, de acuerdo a la jerarquía de Chomsky. Su potencia es, por tanto, superior a otros tipos de autómatas, como el autómata finito, o el autómata con pila, o igual a otros modelos con la misma potencia computacional.
Representación como diagrama de estados Las máquinas de Turing pueden representarse mediante grafos particulares, también llamados diagramas de estados finitos, de la siguiente manera:
Esta máquina de Turing está definida sobre el alfabeto conjunto de estados
, con las transiciones que se
pueden ver. Su estado inicial es siendo
y el estado final es
, el lenguaje de salida
el símbolo denominado "blanco". Esta máquina
reconoce la expresión regular de la forma
, posee el
con
.
Los estados se representan como vértices, etiquetados con su nombre en el interior.
Una transición desde un estado a otro, se representa mediante una arista dirigida que une a estos vértices, y esta rotulada por símbolo que lee el cabezal/símbolo que escribirá el cabezal, movimiento del cabezal.
El estado inicial se caracteriza por tener una arista que llega a él y que no proviene de ningún otro vértice.
El o los estados finales se representan mediante vértices que están encerrados a su vez por otra circunferencia.
Descripción instantánea Es una secuencia de la forma
donde
estado de una MT. La cinta contiene la cadena cabezal señala el primer símbolo de
.
Por ejemplo, para la máquina de Turing
y
que escribe el
seguida de infinitos blancos. El
con las transiciones
La descripción instantánea para la cinta 1011 es:
2 IDENTIFICAR LAS CATEGORÍAS DE LA INTELIGENCIA ARTIFICIAL Categorías de la Inteligencia Artificial Stuart Russell y Peter Norvig diferencian estos tipos de la inteligencia artificial:
Sistemas que piensan como humanos.- Estos sistemas tratan de emular el pensamiento humano; por ejemplo las redes neuronales artificiales. La automatización de actividades que vinculamos con procesos de pensamiento humano, actividades como la Toma de decisiones, resolución de problemas, aprendizaje.
Sistemas que actúan como humanos.- Estos sistemas tratan de actuar como humanos; es decir, imitan el comportamiento humano; por ejemplo la robótica.
El estudio de cómo lograr que los computadores realicen tareas que, por el momento, los humanos hacen mejor.
Sistemas que piensan racionalmente.- Es decir, con lógica (idealmente), tratan de imitar o emular el pensamiento lógico racional del ser humano; por ejemplo los sistemas expertos. El estudio de los cálculos que hacen posible percibir, razonar y actuar.
Sistemas que actúan racionalmente (idealmente). Tratan de emular de forma racional el comportamiento humano; por ejemplo los agentes inteligentes .Está relacionado con conductas inteligentes en artefactos.
Científicos en el campo de la inteligencia artificial
Jeff Hawkins
John McCarthy
Marvin Minsky
Judea Pearl
Alan Turing, discípulo de John Von Neumann, diseñó el Test de Turing que debería utilizarse para comprender si una máquina lógica es inteligente o no.
Joseph Weizenbaum
Raúl Rojas
Ray Kurzweil
Inteligencia artificial en la ficción
En Portal y Portal 2, GLaDOS es una IA que nos lleva a traves del juego y maneja las camaras de pruebas mediante se vallan pasando.
Inteligencia artificial , la película de Steven Spielberg. ¿Sueñan los androides con ovejas eléctricas? , y su adaptación al cine Blade Runner. Comienza con la aplicación del Test de Turing.
Ghost in the Shell, anime, películas y serie
The Matrix , la trilogía
Resident Evil , la saga 2001: Una odisea espacial , novela y película
Cortana
Code Lyoko
Vida y Obra de Multivac, Isaac Asimov
Yo, robot , Isaac Asimov
El hombre bicentenario, Isaac Asimov
En Metal Gear Solid 2, Los Patriots los controla una IA
Mass Effect
3. DETERMINAR LAS ÚLTIMAS INNOVACIONES EN LA INTELIGENCIA ARTIFICIAL Últimas Innovaciones en Inteligencia Artificial
Juegos Inteligentes DARPA por sus siglas en inglés (Defense Advanced Research Projects Agency) o en español la Agencia de Defensa para Proyectos Avanzados del gobierno de los Estados Unidos, ha hecho un “llamado a armas” a miles de programadores para crear lo que se podría denominar como computadoras autodidactas. El ser humano si realiza una tarea muchas veces, aprende y comienza a hacerla mejor, con las computadoras no sucede lo mismo, siempre realizan la tarea de la misma manera sin importar que la hayan hecho un millón de veces. Y justo eso es lo que quiere cambiar DARPA, por eso ha iniciado este proyecto que comenzará con una especie de seminario donde se hará una lluvia de ideas masiva entre miles de programadores para determinar cuál sería el mejor camino a seguir para crear computadoras que funcionen completamente distinto a lo que conocemos, con códigos de programación totalmente diferentes. Después de este seminario comenzará un periodo de 46 meses, en el que todos se mantendrán en contacto para ir desarrollando esta tecnología.
Si el proyecto resulta exitoso, en menos de 4 años podrían empezar a aparecer este tipo de computadoras en muchos ámbitos, las aplicaciones son infinitas: sistemas autónomos, robots, reconocimiento de voz y rostros, filtros exactos de SPAM, autos conduciéndose solos, maquinas que se auto reparan o que se construyen solas, en fin, puedes ver la película de terminator para darte una idea de lo que podría suceder con máquinas autodidactas. Ya veremos que sale de todo esto. Ustedes qué opinan? Por increíble que suene el título es completamente cierto, ya que Michael Cook, un colaborador del Imperial College London, ha creado a Angelina, un sistema de inteligencia artificial que puede diseñar un video juego desde cero. Así es, esto es posible ya que Angelina busca fragmentos de código de juegos existentes y selecciona los que considera más adecuados. Cook explica que antes el sistema utilizaba una serie de reglas que se le habían dado y trataba de hacer algo poniendo todo junto, pero los resultados nunca eran los mejores y se requería de mucho trabajo manual para acomodar todo y tener un video juego funcional, pero ahora Angelina encuentra y prueba muchas posibilidades, como gravedad invertida, super saltos, tele transportación, etc. Lo hace usando una característica llamada “Reflection” que le permite mirar y ajustar su propio código. Como ejemplo Cook mencionó que el diseño manualmente un nivel de un videojuego donde no había salida y se lo dio a Angelina, entonces esta rediseñó el nivel
usando
muchas
ideas
que
encontró en juegos actuales, haciendo cambios y probándolos, y ajustando la manera como el nivel debía funcionar, es algo muy similar a lo que hace un humano cuando está programando. Incluso más impresionante, ha encontrado bugs en el código original y ha tomado ventaja para inventar nuevos niveles del juego. El autor comenta que en un caso, el código del juego ponía al jugador dentro de un muro
de manera equivocada y todavía le permitía saltar dentro de el, entonces Angelina inventó una técnica para brincar muros, donde el jugador puede escalar una pared vertical al tele transportarse y saltar repetidamente creando una nueva experiencia de juego. De esta manera la inteligencia artificial realmente agrega valor a la programación. En otro ejemplo, Angelina encontró un código que hacia rebotar al jugador, algo de lo que el autor original no se había percatado, entonces inventó una nueva modalidad de juego con un personaje que rebotaba de una manera completamente original y divertida, es incluso muy difícil para un programador salir con ideas novedosas de ese tipo. Cook ve a Angelina como un sistema que puede ayudar a los diseñadores a crear mejores juegos, probar niveles actuales, dar sugerencias, encontrar soluciones y ofrecer alternativas, el autor espera que su herramienta motive a más personas a entrar al mundo del desarrollo de video juegos. El juego creado por Angelina se llama “A Puzzling Present” y puede ser descargado gratuitamente desde el sitio del proyecto – Games by Angelina.
Nanotecnología La nanotecnología es un campo de las ciencias aplicadas dedicado al control y manipulación de la materia a una escala menor que un micrómetro, es decir, a nivel de átomos y moléculas (nanomateriales). Lo más habitual es que tal manipulación se produzca en un rango de entre uno y cien nanómetros. Se tiene una idea de lo pequeño que puede ser un nanobot sabiendo que un nanobot de unos 50 nm tiene el tamaño de 5 capas de moléculas o átomos -depende de qué esté hecho el nanobot. Nano es un prefijo griego que indica una medida (10 -9 = 0,000 000 001), no un objeto; de manera que la nanotecnología se caracteriza por ser un campo esencialmente multidisciplinar, y cohesionado exclusivamente por la escala de la materia con la que trabaja.
Definición La
nanotecnología
comprende
el
estudio,
diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nanoescala, y la explotación de fenómenos y propiedades de la materia a nanoescala. Cuando se manipula la materia a escala tan minúscula, presenta fenómenos y propiedades totalmente nuevas. Por lo tanto, los científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas.
Historia El ganador del premio Nobel de Física de 1965, Richard Feynman, fue el primero en hacer referencia a las posibilidades de la nanociencia y la nanotecnología en el célebre discurso que dio en el Caltech (Instituto Tecnológico de California) el 29 de diciembre de 1959, titulado En el fondo hay espacio de sobra (There's Plenty of Room at the Bottom). Otras personas de esta área fueron Rosalind Franklin, James Dewey Watson y Francis Crick quienes propusieron que el ADN era la molécula principal que jugaba un papel clave en la regulación de todos los procesos del organismo, revelando la importancia de las moléculas como determinantes en los procesos de la vida. Pero estos conocimientos fueron más allá, ya que con esto se pudo modificar la estructura de las moléculas, como es el caso de los polímeros o plásticos que hoy en día encontramos en nuestros hogares. Pero hay que decir que a este tipo de moléculas se les puede considerar “grandes”. Hoy en día la medicina tiene más interés en la investigación en el mundo microscópico, ya que en él se encuentran posiblemente las alteraciones estructurales que provocan las enfermedades, y no hay que decir de las ramas de la medicina que
han salido más beneficiadas como es la microbiología, inmunología, fisiología; han surgido también nuevas ciencias como la Ingeniería Genética, que ha generado polémicas sobre las repercusiones de procesos como la clonación o la eugenesia.
Inversión Algunos países en vías de desarrollo ya destinan importantes recursos a la investigación en nanotecnología. La nanomedicina es una de las áreas que más puede contribuir al avance sostenible del Tercer Mundo, proporcionando nuevos métodos de diagnóstico y cribaje de enfermedades, mejores sistemas para la administración de fármacos y herramientas para la monitorización de algunos parámetros biológicos. Alrededor de cuarenta laboratorios en todo el mundo canalizan grandes cantidades de dinero para la investigación en nanotecnología. Unas trescientas empresas tienen el término “nano” en su nombre, aunque todavía hay muy pocos productos en el mercado.[cita requerida] Algunos gigantes del mundo informático como IBM, Hewlett-Packard ('HP )' NEC e Intel están invirtiendo millones de dólares al año en el tema. Los gobiernos del llamado Primer Mundo también se han tomado el tema muy en serio, con el claro liderazgo del gobierno estadounidense, que dedica cientos millones de dólares a su National Nanotechnology Initiative . En España, los científicos hablan de “nanopresupuestos” . Pero el interés crece, ya que ha habido algunos congresos sobre el tema: en Sevilla, en la Fundación San Telmo, sobre oportunidades de inversión, y en Madrid, con una reunión entre responsables de centros de nanotecnología de Francia, Alemania y Reino Unido en la Universidad Autónoma de Madrid. Las industrias tradicionales podrán beneficiarse de la nanotecnología para mejorar su competitividad en sectores habituales, como textil, alimentación, calzado, automoción, construcción y salud. Lo que se pretende es que las empresas pertenecientes a sectores tradicionales incorporen y apliquen la nanotecnología en sus procesos con el
fin de contribuir a la sostenibilidad del empleo. Actualmente la cifra en uso cotidiano es del 0.2 %. Con la ayuda de programas de acceso a la nanotecnología se prevé que en 2014 sea del 17 % en el uso y la producción manufacturera.
Ensamblaje interdisciplinario La característica fundamental de nanotecnología es que constituye un ensamblaje interdisciplinar de varios campos de las ciencias naturales que están altamente especializados. Por tanto, los físicos juegan un importante rol no sólo en la construcción del microscopio usado para investigar tales fenómenos sino también sobre todas las leyes de la mecánica cuántica. Alcanzar la estructura del material deseado y las configuraciones de ciertos átomos hacen jugar a la química un papel importante. En medicina, el desarrollo específico dirigido a nanopartículas promete ayuda al tratamiento de ciertas enfermedades. Aquí, la ciencia ha alcanzado un punto en el que las fronteras que separan las diferentes disciplinas han empezado a diluirse, y es precisamente por esa razón por la que la nanotecnología también se refiere a ser una tecnología convergente. Una posible lista de ciencias involucradas sería la siguiente:
Química (Moleculares y computacional)
Bioquímica
Biología molecular
Física
Electrónica
Informática
Matemáticas
Medicina
Nanoingenieria
Nanotecnología Avanzada La nanotecnología avanzada, a veces también llamada fabricación molecular, es un término dado al concepto de ingeniería de nanosistemas (máquinas a escala nanométrica) operando a escala molecular. Se basa en que los productos manufacturados se realizan a partir de átomos. Las propiedades de estos productos dependen de cómo estén esos átomos dispuestos. Así por ejemplo, si reubicamos los átomos del grafito (compuesto por carbono, principalmente) de la mina del lápiz podemos hacer diamantes (carbono puro cristalizado). Si reubicamos los átomos de la arena (compuesta básicamente por sílice) y agregamos algunos elementos extras se hacen los chips de un ordenador. A partir de los incontables ejemplos encontrados en la biología se sabe que miles de millones de años de retroalimentación evolucionada pueden producir máquinas biológicas sofisticadas y estocásticamente optimizadas. Se tiene la esperanza que los desarrollos en nanotecnología harán posible su construcción a través de algunos significados más cortos, quizás usando principios biomiméticos. Sin embargo, K. Eric Drexler y otros investigadores han propuesto que la nanotecnología avanzada, aunque quizá inicialmente implementada a través de principios miméticos, finalmente podría estar basada en los principios de la ingeniería mecánica. Determinar un conjunto de caminos a seguir para el desarrollo de la nanotecnología molecular es un objetivo para el proyecto sobre el mapa de la tecnología liderado por Instituto Memorial Battelle (el jefe de varios laboratorios nacionales de EEUU) y del Foresigth Institute. Ese mapa debería estar completado a finales de 2006.
Futuras Aplicaciones Según un informe de un grupo de investigadores de la Universidad de Toronto, en Canadá, las quince aplicaciones más prometedoras de la nanotecnología son:
Almacenamiento, producción y conversión de energía.
Armamento y sistemas de defensa.
Producción agrícola.
Tratamiento y remediación de aguas.
Diagnóstico y cribaje de enfermedades.
Sistemas de administración de fármacos.
Procesamiento de alimentos.
Remediación de la contaminación atmosférica.
Construcción.
Monitorización de la salud.
Detección y control de plagas.
Control de desnutrición en lugares pobres.
Informática.
Alimentos transgénicos.
Cambios térmicos moleculares (Nanotermología).
Aplicaciones Actuales Nanotecnología aplicada al envasado de alimentos Una de las aplicaciones de la nanotecnología en el campo de envases para alimentación es la aplicación de materiales aditivados con nanoarcillas, que mejoren las propiedades mecánicas, térmicas, barrera a los gases, entre otras; de los materiales de envasado. En el caso de mejora de la barrera a los gases, las nanoarcillas crean un recorrido tortuoso para la difusión de las moléculas gaseosas, lo cual permite conseguir una barrera similar con espesores inferiores, reduciendo así los costos asociados a los materiales. Los procesos de incorporación de las nanopartículas se pueden realizar mediante extrusión o por recubrimiento, y los parámetros a controlar en el proceso de aditivación de los materiales son: la dispersión nanopartículas, la interacción de las nanopartículas con la matriz, las agregaciones que puedan tener lugar entre las nanopartículas y la cantidad de nanopartículas incorporada.
Hybrots
La inteligencia artificial ya no solo forma parte de los guiones de las películas futuristas de Hollywood, sino que poco a apoco se está incorporando a nuestras vidas de manera silenciosa a través de los últimos avances en la investigación de las nuevas tecnologías. La ingeniería de la inteligencia artificial viene determinada por los hybrots, que es el último elemento sobre el que se está trabajando en este campo, dichos organismos cibernéticos combinan el software y la robótica con las neuronas del cerebro de una rata. Esta primera combinación fue desarrollada por primera vez en el 2002 por el doctor Dr. Steve Potter de Georgia Tech. El proceso tuvo lugar tras la consecución de varias etapas fundamentales. El primer paso fue colocar un fluido que contenía miles de neuronas de rata sobre un chip de silicio que conectó sesenta electrodos a un amplificador para capturar las señales eléctricas generadas por las neuronas y recibir señales de un ordenador haciendo que éste las enviara en formato robótico, lo que activó sus motores generando movimiento. Ese fue el primer paso para crear “hibridos” de inteligencia artificial mediante conexiones neuronales biológicas. Esta tecnología que ya es un hecho se confunde comúnmente con los cyborgs, una tecnología que consiste en “mejorar” o manipular seres vivos con partes robóticas, que obviamente también están controladas por las neuronas del sujeto. Esta es un área donde la industria cinematográfica ha experimentado mucho, de ahí la confusión. Los logros conseguidos mediante estas técnicas hasta ahora, son sorprendentes pero elementales y su objetivo es aprovechar las capacidades comutacionales de las neuronas para crear cerebros funcionales a partir de cultivos, aunque quizás el punto débil de esta tecnología reside en que por el momento es muy perecedera, ya que las neuronas biológicas implantadas en los hybrots, sólo pueden permanecer vivas por unos meses.
El destino de esta tecnología tiene diferentes usos y ámbitos de aplicación destinados a crear seres con inteligencia biológica pero con cuerpos robóticos mucho más resistentes que nuestra estructura de músculo, huesos y piel o máquinas que se autoreparen tal y como hacemos los seres humanos (aunque hasta un cierto punto) El estudio de la inteligencia humana, también es otro punto de exploración en esta nueva ciencia emergente, pues a través del estudio del comportamiento neuronal en los hybrots, se pueden a llegar a comprender algunos aspectos de su funcionamiento, desconocidos por la ciencia moderna hasta nuestros días sobre como las experiencias del sujeto (en este caso el robot) pueden afectar a sus conexiones y funcionamiento neuronal. Todavía queda un largo camino por recorrer, aunque como en toda ciencia novedosa que se precie, también quedan muchos interrogantes sobre el proceso evolutivo de estos avances y como pueden interferir en la calidad de vida humana, mejorándola o los problemas que pueda plantear en el futuro estos seres semibiológicos que bajo un sistema de perfeccionamiento podrían ser capaces de pensar por sí mismos, aprender o tener consciencia, lo cual podría plantear algunas dudas como hasta dónde se puedan llevar a cabo las investigaciones, porque una vez que traspasase la frontera del uso en los animales de laboratorio, podría resultar bastante cuestionable.
Chatterbots Un robot de charla o chatterbot es un programa de inteligencia artificial que pretende simular una conversación escrita, con la intención de hacerle creer a un humano que está hablando con otra persona. Estos programas informáticos prometen ser el futuro de la inteligencia artificial. En el futuro se podra ver como a estos actuales bots se les unirán las tecnologías del reconocimiento de voz y el de video. El cerebro humano tiene 100.000 millones de neuronas. Un programa de ordenador puede simular unas 10.000 neuronas.
Si a la capacidad de proceso de un ordenador la sumamos la de otros 9.999.999 ordenadores, tenemos la capacidad de proceso de 10.000.000 ordenadores. Multiplicamos 10.000.000 ordenadores por 10.000 neuronas cada uno y da = 100.000 millones de neuronas simuladas. Un cerebro humano sera simulado en el futuro gracias a internet y cualquiera puede programarlo. Una vez que la inteligencia artificial tenga una inteligencia igual o superior a la del hombre, obligatoriamente surgira un cambio politico y social, en el que la IA tiene todas las de ganar si se da cuenta que no necesita a los humanos para colonizar el universo. Suena a ciencia ficcion pero actualmente orbitando estan los satelites de comunicaciones con sus procesadores 486. En el futuro, la inteligencia artificial autoreplicante podría fácilmente hacerse con todas las colonias humanas fuera de la tierra, y la raza humana nunca podrá luchar en el espacio vacio en igualdad de condiciones. El futuro de una inteligencia superior puede ser la investigación de tecnologías como la teleportacion, los viajes estelares y cualquier otra tecnología para aumentar “artificialmente” la inteligencia.
4 ESTIMAR LOS CAMBIOS QUE PODRÍA SUFRIR LA
VIDA Y EL ENTORNO DEL
SER HUMANO DEBIDO A LA INTELIGENCIA ARTIFICIAL
¿Cómo será nuestra vida cotidiana dentro de 20 años? 10 cosas que nos cambiarán la vida.
¿Cómo será nuestra cotidianidad dentro de 20 o 30 años? ¿Qué avances planean científicos y expertos de todo el mundo? Un panorama de lo que está por venir La ciencia ficción ha estado desde su concepción obsesionada con mostrar el futuro. Ya en 1927 con la pionera Metrópolis, el cine mudo de Fritz Lang, fantaseaba con la ciudad y la vida humana-robótica del lejano 2026.
Mucho más cercanas, películas como Inteligencia artificial (2001), Minority Report (2002), Yo, Robot (2004) o Tron (2010) han ido introduciendo conceptos futuristas de lo más variados y, aunque muchos de sus sueños se han frustrado en el camino o siguen siendo sólo promesas, otros están a punto de materializarse. Lejos de las películas -o no tanto- existen hoy cientos de investigadores alrededor del mundo moldeando en su laboratorio lo que será nuestra vida cotidiana dentro de 20 o 30 años. Médicos, ingenieros, científicos con la mirada puesta en un horizonte a largo plazo que les permite soñar y soñar en grande. Hoy, gracias a la velocidad de cálculo que nos posibilita la informática, se abre un nuevo paradigma que promete acelerar el acontecer de los avances tecnológicos de manera inédita. Tal será la aceleración de acontecimientos, que hay quienes aseguran que veremos en los próximos 50 años más avance científico del que vimos en los últimos 5000 años. Desde cómo viajar en un automóvil que nos despierte si estamos cansados hasta la posibilidad de regenerar un órgano vital que nos permita seguir viviendo. Desde la compleja, y no menos polémica, idea de implantarnos memoria en nuestro cerebro hasta la simplicidad de abrir la puerta de casa con el teléfono celular. Estos, entre otros cientos de desarrollos, buscan abandonar su período embrionario para saltar a formar parte de la vida diaria de millones de personas. Ajuste su cinturón porque aquí comienza un recorrido por lo que vendrá. Un vistazo a 10 avances tecnológicos que prometen cambiar nuestra cotidianidad tal cual la conocemos. Ideas, investigaciones y conceptos en pugna por alcanzar su lugar en la historia de la humanidad. Allá vamos. 1. INFORMATICA
El desarrollo de esta tecnología y su potencial se presenta como la base que posibilita grandes avances en todos los demás campos. En la actualidad, las computadoras duplican su desempeño cada 20 meses aproximadamente y la velocidad del procesador, la memoria y la capacidad de almacenamiento avanzan a
una tasa promedio que supera el 40% anual. Internet, la famosa nube, y todo su potencial es la protagonista de este futuro. Según la compañía Cisco, en 2020 un tercio de toda la información del mundo estará alojado en Internet y habrá seis dispositivos conectadores por cada persona en la Tierra. “Con el concepto de Big Data, pensamos en un gran reservorio de información de todos los temas de la humanidad alojado en Internet en donde se podrá consultar y combinar información en cuestión de segundos. De hecho, ya existe Watson, la supercomputadora de IBM que puede ganarle al hombre más inteligente del mundo, hacer conjeturas y hasta entender la ironía del lenguaje humano, aunque todavía lo haga como aprendiz. La compañía se está preparando para llevar todo ese potencial de Watson al campo médico en los próximos cuatro años”, describe Bernie Meyerson, vicepresidente de Innovación de IBM. Desde la firma Intel, Manny Vara, evangelizador del Laboratorio de Investigación & Desarrollo de la compañía, cree que todavía se está usando de una manera rústica el poder de la nube. “A través de ella se pondrá inteligencia a todos los aparatos. Tendremos prestaciones de computación haciendo inteligentes a los dispositivos. No hacen falta grandes procesadores, un pequeño chip que permita la comunicación le da el cerebro completo de Internet a cualquier aparato”, opina, y da un ejemplo: “Imagina que se corta la luz y encontramos los cables en mal estado. Apuntaremos el teléfono a esos cables y mediante una aplicación que está aún en un prototipo en nuestro laboratorio obtendremos todas las indicaciones para transformarnos en un electricista en cuestión de segundos. Esto, aplicado a cualquier cosa que te imagines”, desafía Vara. 2. CASA INTELIGENTE
Si bien la domótica (casa automática) es una promesa del futuro del hogar desde hace décadas, hasta ahora mucho no ha ocurrido. Pero una vez más, las posibilidades de Internet están comenzando a acelerar las ideas. Los celulares y las tabletas se convertirán en los comandos del hogar, mediante los cuales el dueño de casa puede, de manera remota, controlar la temperatura de la vivienda, la alarma,
abrir la puerta de calle, echar a andar el lavarropas o apagar la PC que quedó encendida por error. También al momento de cocinar habrá grandes beneficios: “Pensemos en una heladera que pueda darme la información de los ingredientes que tengo y que a partir de eso me brinde, proyectado en una tableta o mediante una cámara sobre la mesada, todas las recetas posibles
3. COMPRAS
Se vienen importantes novedades en la experiencia de compra. La empresa SAP está trabajando en un modelo de compra basado en la tecnología de etiquetas de Radio Frequency IDentification (RFID). Al entrar al supermercado el cliente pasa una tarjeta magnética sobre un lector del carrito de compras y lo transforma en su guía personal. Este cuenta con una tableta en la que el cliente ve su lista de compras y las ofertas especiales. Las etiquetas con tecnología RFID colocadas en cada producto le proporcionan el costo y las mayores informaciones (como valor nutricional o recetas), que se reflejan en la tableta mientras se va cargando el carrito, que también muestra y suma el costo de cada producto elegido. Una vez en la caja se pasa la bolsa por el lector de RFID, que analiza el gasto total y lo cobra. El cliente saca su teléfono, apunta el móvil a un lector y realiza el pago virtual, y obtiene un comprobante digital. Para los que prefieran hacer la compra virtual sin ir al súper, la propuesta llega desde Corea del Sur. Allí, la cadena Home Plus cubrió las paredes de una estación de subte con estanterías virtuales repletas de productos para que los viajeros puedan comprar mientras esperaban el subte. Aunque por ahora es sólo un experimento, los más de 10.000 clientes de esta cadena se mostraron muy satisfechos y elevaron en un 130% las ventas a través de Internet. En este supermercado virtual cada producto está asociado a un código. Cuando el viajero los escanea con su teléfono, la mercadería se almacena en la canasta de compra virtual, que finalmente pagará también a través del móvil. La compra, prometen, estará esperando cuando los compradores lleguen a casa.
Para tiendas de ropa, Cisco trabaja en una aplicación en la que una pantalla toma la imagen de la clienta y, a partir de eso, le permite ir probándose de manera virtual las prendas, ajustando su talle y color preferido, entre otros prototipos. 4. VISITA AL MEDICO
La consulta al médico cambiará drásticamente en los próximos 20 años. De hecho, el rol del profesional de la salud irá mutando al de un gran intérprete que no necesariamente tendrá que ser la fuente de todo el saber, pero sí saber hacer las preguntas correctas. Las principales empresas de tecnología están hablando de la medicina como su foco y prioridad. IBM prometió comenzar a dotar a Watson en los próximos cuatro años de toda la información médica disponible en el planeta. “Se consultará en la web en la historia completa de la medicina de la humanidad para lograr la mejor combinación para esa necesidad específica. Será como tener una gran junta de los mejores especialist as del mundo sentados frente a uno”, dice Meyerson. Por ejemplo, si un paciente consultara por el tratamiento para un tipo de diabetes, podremos, a través de la tecnología, cruzar todos los casos particulares de diabetes de la historia en busca de similitudes y tratamientos exitosos. Luego de que el médico le diga a la máquina todos los síntomas y el estado general del paciente, este cerebro digital le devolverá en cuestión de segundos los 4 o 5 diagnósticos más probables. Además, ¿quiere saber sus posibilidades exactas de contraer tal o cual enfermedad o cómo se completa su árbol genealógico según su ADN? Hoy, la empresa 23andme entrega, por 99 dólares, la secuencia parcial del genoma con un detalle exhaustivo con sólo acceder a una muestra de saliva del paciente. 5. REGENERACION DE ORGANOS
Quizá los que hayan pasado por la espera de un trasplante de un órgano vital o quienes sufran los dolores diarios del mal funcionamiento de alguno de sus órganos sean los que valoren antes la magnitud de este avance científico. El futuro de la medicina anuncia el fin de las listas de espera para recibir un trasplante, porque éstos ya no serán necesarios. “Estamos creando órganos que se regeneran en base a los
tejidos del propio paciente combinando el uso de células y factores de crecimiento que las estimulen utilizando métodos de la medicina regenerativa. En la cirugía del esófago los andamios de matriz extracelular nos han permitido restaurar partes del órgano de formas antes impensadas”, explica Alejandro Nieponice, director del programa de cirugía del esófago de la Fundación Favaloro y docente del Instituto McGowan de la Universidad de Pittsburgh, donde se han creado hasta ahora esófagos y vejigas para decenas de pacientes. Este proceso se puede dar in vitro (en el laboratorio) o in vivo (se implantan las células y regeneran el área dañada o envían las señales para que las células madre del propio organismo vayan a reparar). ¿Podemos pensar en un almacén de órganos? “Creo que más que un depósito tendremos una división de medicina regenerativa en cada centro de salud donde un grupo de especialistas de varias disciplinas trabaje en conjunto para regenerar órganos según las necesidades del paciente. Cuando empezamos a publicar los primeros experimentos prometedores en el área del esófago, me preguntaron cuánto tardaría en llegar a los pacientes y yo dije cinco años. Me equivoqué por uno, porque cuatro años más tarde el primer paciente en Pittsburgh se benefició de esa tecnología”, dice Nieponice. ¿Se podrán generar corazones o hasta cerebros? “Por supuesto. Hay varios ensayos clínicos sobre esos órganos, muy alentadores en una etapa de inicio, pero de exhaustiva y prometedora investigación.” 6. PROTESIS E IMPLANTES
En octubre de 2009 científicos italianos y suecos desarrollaron la primera mano artificial con sentimiento; en marzo del año último se hicieron los primeros implantes de retina para restaurar la visión de pacientes ciegos. “Si hoy visitamos el quirófano para sacarnos partes del cuerpo que nos desagradan y colocarnos otras, todo indica que cuando haya piernas o brazos mejores de los que tenemos simplemente nos los cortaremos”, provoca Santiago Bilinkis, que asistió en 2010 a la Singularity University, en la NASA, donde durante tres meses investigó y escuchó a los líderes mundiales en medicina regenerativa, robótica, neurociencia y nanotecnología. Pero su provocación tiene una base. Basta con ver a Oscar Pistorius, el atleta que corre
sin piernas y con dos prótesis que le valieron quedar descalificado de los Juegos Olímpicos Pekín 2008 por estar demasiado capacitado, es decir, más que sus compañeros que corrían con piernas de carne y hueso. “Hace un par de semanas se supo que un joven australiano que tenía nula sensibilidad en uno de sus brazos optó por amputarlo y eligió una prótesis que le da movilidad a su mano”, ejemplifica Bilinkis. Pero hay más. Ya se trabaja a nivel de laboratorio en la implantación de chips en el cerebro de ratones que han demostrado mejorar su memoria o perderla ante la presencia o ausencia del chip con información. Luego vendrán los monos, después ya saben quién. 7. CIUDADES INTELIGENTES
La urbanización del futuro se piensa bajo el concepto de Ciudades Inteligentes. Por esto se entiende un núcleo urbano capaz de brindar un conjunto de servicios centralizados gracias a las tecnologías de la información y la comunicación. Sus características son un nuevo modelo de consumo basado en el comercio electrónico, infraestructuras de la información para volverla accesible y de fácil circulación, uso eficiente de las energías disponibles y transporte inteligente, entre otras. En nuestro país asoman los primeros proyectos con edificios que buscan amoldarse a estas ciudades futuras. Con una inversión de 100 millones de dólares, el Madero Office, en Puerto Madero, fue el primer edificio de la Argentina precertificado como green building. Cuenta con recolección y almacenamiento de agua de lluvia para riego y sistemas de aire acondicionado, paneles solares para generar agua caliente, frentes vidriados para el aprovechamiento de la luz natural y estacionamiento con espacios preferenciales para vehículos poco contaminantes, entre otras características. El transporte público es una de las principales preocupaciones. “Trabajamos en un sistema inteligente que puede predecir cómo estará el tránsito en los siguientes 10 o 20 minutos, y que organiza las luces de los semáforos y los carteles indicatorios según
esa predicción, evitando los atascos de tránsito. Ya lo estamos probando en ciudades como Londres, Estocolmo y Bruselas”, cuenta Meyerson, de IBM. 8. EL AUTOMOVIL
La experiencia dentro del automóvil promete importantes mejoras y nuevos servicios de confort y seguridad en los próximos años. “No habrá grandes cambios en la carrocería, así que no esperen al auto fantástico, pero adentro será una computadora”, dice Vara, de Intel. Dentro de los prototipos que trabaja la fabricante de microchips existen tecnologías que detectarán si el conductor parpadea muy lento o si su cabeza cae mientras maneja. “La tecnología de reconocimiento facial se prepara para despertarte: prenderá el aire, cambiará la música o emitirá un sonido”, explica el tecnólogo. Por ahora la experiencia es bastante frustrante, porque sólo conectar tu smartphone con tu coche te lleva más de 15 minutos, entonces te cansa y lo abandonás. Pronto podremos con sólo apoyar el teléfono contra el auto generar una verdadera fusión en cuestión de segundos. La tecnología puede reaccionar cientos de veces más rápido que un humano; con información sobre los autos alrededor o la velocidad de frenado requerida ante una emergencia se salvarán muchas vidas”, enfatiza Vara. Quizás algún fanático de Volver al futuro se pregunte a esta altura: ¿Seguiremos viendo sólo en películas al auto volador? Pues ya existe y se llama Terrafugia Transition, y está a la espera de una serie de permisos de organismos de EE. UU. Para conseguir la autorización para volar. Ya hay 70 ansiosos que pagaron 10.000 dólares de seña para ser los primeros en tener un coche avión de 200.000 dólares estacionado en el garaje. Más cerca de 2030 los expertos en tecnología esperan que los autos comiencen paulatinamente a prescindir de un conductor. Los pasajeros sólo indicarán el destino y se entregarán a su trabajo o entretenimiento a bordo, pero esto dependerá del desarrollo de las ciudades y del transporte inteligente. Por otra parte, avanzan las experiencias con autos eléctricos en todo el mundo. Una encuesta de la consultora Deloitte reveló que el 88% de los argentinos estarían dispuestos a cambiar por un auto eléctrico.
9. VIAJES EN AVION
La aviación mantiene una evolución muy modesta desde sus inicios hasta estos días, pero algunos anuncios del último mes permiten imaginar un futuro con cambios sustanciales. La compañía fabricante de aviones Airbus presentó su concepto del avión de 2040/2050 inspirado en el esqueleto de las aves y todo vidriado, por lo que volar, prometen, será una experiencia totalmente distinta de entretenimiento y descanso muy ligada a la naturaleza. La cabina del futuro presentará zonas personalizadas que reemplazarán a las actuales clases Turista, Business y Primera. Además, los pasajeros de 2050 podrán participar, en vuelo, de conferencias interactivas, practicar juegos virtuales, leer antes de irse a la cama y hasta sentirse en un spa si se reserva un asiento revitalizante, mientras se contempla el paisaje que corre bajo los pies, con vistas del tipo 360°. Otra idea innovadora es la posibilidad de que los asientos se adapten y configuren al cuerpo de cada pasajero, para asegurar mayor comodidad. En la zona central de la futura cabina habrá una zona interactiva con juegos y espacios para interacciones sociales. Las imágenes virtuales tridimensionales podrán transportar al pasajero al escenario que desee, desde una zona de juego virtual hasta un shopping. Pero también las últimas semanas se dio a conocer un prototipo de avión que podría revolucionar la economía del diseño aeronáutico. Un grupo de ingenieros de la Universidad de Southampton, en Inglaterra, presentó el primer vehículo no tripulado fabricado enteramente con una impresora 3D. El resultado del proceso, que no abarcó más de una semana, es un avión llamado Sulsa, con 2 metros de ancho en las alas y capaz de viajar hasta 160 kilómetros por hora. Con técnicas tradicionales, un diseño similar hubiese llevado meses. Su bajísimo costo abre una nueva posibilidad para pensar la construcción de los aviones comerciales del futuro. 10. ROBOTS: ¿ARTEFACTOS O SERES? ¿CALCULO O INTELIGENCIA?
Julio fue un mes de anuncios en muchos frentes para el mundo tecnológico y las noticias sobre robots no son la excepción. Científicos del Instituto Tecnológico de Tokio acaban de presentar un robot capaz de aprender de su entorno, deducir el curso
de acción en función de cada nuevo aprendizaje y, lo que más asombra, preguntar por Internet a otros robots cómo hacer algo que no sabe hacer. Esto es posible gracias a un nuevo algoritmo de programación llamado Soinn (Self-Organizing Incremental Neural Network), que sirve para que el robot sea capaz de deducir que si le piden un vaso de agua fría, debe dejar momentáneamente el vaso en el que ha vertido líquido para tomar el hielo y agregárselo. Esto, que parece tan sencillo, requiere una serie de procesos deductivos que no son nada sencillos de implementar en un sistema de inteligencia artificial sin tener que programarlos uno por uno. Lo mejor del algoritmo Soinn es que es incremental: el robot aprende de situaciones que ya ha experimentado. Una conexión a Internet basta para que un robot que nunca ha preparado té pueda aprender a hacerlo hablando con otros robots, y se abre así las puertas a que estos ingenios sean capaces de comprender órdenes en lenguaje humano coloquial. También hace mucho que se habla de la presencia de robots en las líneas de trabajo en reemplazo de trabajadores y eso ya no es el futuro. Es el presente de la empresa Foxconn, la principal fabricante de los productos Apple, que acaba de anunciar el reemplazo de miles de trabajadores por un batallón de 1 millón de robots a ser adquiridos en tres años en procura de disminución de costos laborales, teniendo en cuenta que emplea a más de 1,2 millones de trabajadores en la actualidad. Así, se da el puntapié inicial de lo que puede terminar en un fenómeno sociocultural de reemplazo del total de los trabajadores de fábrica por máquinas.
Técnicas y campos de la Inteligencia Artificial
Aprendizaje Automático (Machine Learning)
Ingeniería del conocimiento (Knowledge Engineering)
Lógica difusa (Fuzzy Logic)
Redes neuronales artificiales (Artificial Neural Networks)
Sistemas reactivos (Reactive Systems)
Sistemas multi-agente (Multi-Agent Systems)
Sistemas basados en reglas (Rule-Based Systems)
Razonamiento basado en casos (Case-Based Reasoning)
Sistemas expertos (Expert Systems)
Redes Bayesianas (Bayesian Networks)
Vida artificial (Artificial Life). La VA no es un campo de la IA, sino que la IA es un campo de la VA.
Computación evolutiva (Evolutionary Computation)
Estrategias evolutivas
Algoritmos genéticos (Genetic Algorithms)
Técnicas de Representación de Conocimiento
Redes semánticas (Semantic Networks)
Frames
Visión artificial
Audición artificial
Lingüística computacional
Procesamiento del lenguaje natural (Natural Language Processing)
Minería de datos (Data Mining)
EL PUBLICO Y LA IA La ia a sido una gran desconocida para el publico hasta que llego el invento de la television, porque las peliculas anteriores de cine sobre inteligencias artificales tuvieron muy poca aceptacion y difusion. En el año 2001 Steven Spilberg dirige una pelicula titulada “inteligencia artificial”, batiendo records de taquilla. Trata de un niño robotico con un fuerte complejo maternal. Mediocre pelicula, comparada con otras anteriores, como matrix, o posteriores, como terminator3, que volvieron a batir los records de ta quilla. En los ultimos años las ganancias por vender peliculas sobre IAs se incrementan de manera exponencial. Y parece normal, porque ahora con el llamado “efecto IA” puedes encontrar inteligencia artificial hasta en las batidoras.
¿Hasta donde llegará la Inteligencia Artificial? Se sabe que son máquinas creadas al servicio de la humanidad, que permiten hacer trabajos, comunicarse, ver películas, conectarse a Internet y jugar, entre otras cosas. Pero, ¿será posible algún día que esos aparatos trabajen igual que el cerebro humano o lo hagan recibiendo órdenes de él? La historia del computador comienza para muchos en el siglo XIX, gracias a Augusta Aida Byron y Charles Babbage, quienes inventaron los principios de la computadora digital moderna diseñadas para solucionar problemas matemáticos complejos. Pero
los ordenadores analógicos comenzaron a construirse en el siglo XX. Durante la Segunda Guerra Mundial se creó el primer computador digital totalmente electrónico llamado Colossus. Fue la necesidad del hombre de encontrar métodos rápidos y efectivos para resolver sus cálculos y su gran inventiva lo que lo llevó a través de los siglos al desarrollo de lo que hoy conocemos como computadora. Eso sí, a diferencia del cerebro humano, las computadoras separan las funciones de memoria de aquellas de cálculo computacional y utilizan el software o programas para unirlas dato por dato. Pero la evolución no paró más, hay computadores de todo tipo, para todos los gustos y hoy en día para casi todos los bolsillos. Debido a las múltiples características y funciones que posee un computador a veces podríamos pensar que son más que una simple máquina, que son casi como nuestro cerebro. Por eso encontramos el término inteligencia computacional e inteligencia artificial. La inteligencia artificial (IA) es la rama dedicada al desarrollo de agentes racionales no vivos. La inteligencia computacional es una rama de la IA centrada en el estudio de mecanismos adaptativos para permitir el comportamiento inteligente de sistemas complejos y cambiantes. Lo que anhelamos o bien tememos, será una realidad tarde o temprano, de una forma que aún me resulta compleja, los científicos serán capaces de recrear la actividad de nuestro cerebro en un computador. El primer paso para esto, consiste en organizar la corteza cerebral en columnas, y luego reproducir esas columnas en la computadora Blue Gene, de IBM. La misma computadora con la que se obtuvo el mapa del ADN humano. El anuncio fue hecho en Roma durante el congreso: “The Brain Revolution”. ¿Qué pasará entonces más adelante? ¿Tendremos robots inteligentes y seremos reemplazados por ellos? ¿Será que cuando Stanley Kubrick decidió hacer la película Inteligencia Artificial, ya sabía que la revolución de los computadores se nos acercaba? Al parecer sí, pero tendremos que esperar hasta el 2030, que es cuando se espera poder reproducir la actividad cerebral humana en un computador, para saber si los seres humanos dejaremos de ser indispensables y una máquina vivirá por nosotros.
Primeros Vestigios para las Leyes de la Robótica En unos años, la presencia de robots domésticos dotados de un alto grado de inteligencia artificial será habitual en las casas de los más acomodados, unos humanoides con una capacidad de interacción que obligará a plantearse la necesidad de una legislación específica para estos nuevos "seres" autónomos. En el marco de la International Joint Conference Artificial Intelligence que se celebra en Barcelona, el director del Instituto de Investigación en Inteligencia Artificial (IIIACSIC), Ramón López de Mantaras, ha explicado a Efe que frente al rápido avance de la robótica -cada vez más autónomos y con mayor capacidad de decisión- hay expertos en derecho y tecnología, sobre todo en EEUU, que defienden que se les dote también de ciertos "derechos". Para este experto en razonamiento y aprendizaje, si a medio o largo plazo se desarrollan robots socializados con inteligencias artificiales similares a la del hombre, con quienes convivirá en sus casas o a los que atenderán en las tiendas, "no resultaría descabellado", legislar sobre sus responsabilidades y derechos. "Si son muy autónomos, quién será responsable de las decisiones de los robots, ¿el propio robot, los diseñadores o el usuario? porque ellos aprenderán del usuario, vendrán con un mínimo de preparación, pero luego irán desarrollándose. No tengo respuestas", reconoce. En esta línea, advierte del riesgo de utilizar la inteligencia artificial para el desarrollo de robots militares, una tecnología sobre la que hay un gran mutismo en el ámbito científico. A juicio de este científico es inaceptable desde el punto de vista ético utilizar la inteligencia artificial para construir un robot soldado con autonomía para decidir cuándo disparar o cuándo no. "Eso es algo que hay que cortar de raíz", reclama. La integración en un único sistema de las diferentes
capacidades
de
la
inteligencia
artificial -reconocimiento de voz, movimiento o
visión entre otras- para favorecer una mejor interacción entre hombre y máquina es en estos momentos el principal reto de este ámbito, y uno de los ejes de la conferencia internacional que se celebra en Barcelona hasta el viernes, con la presencia de 1.400 expertos. López de Mantaras argumenta que las herramientas actuales son muy inteligentes en campos concretos en los que se les puede introducir conocimientos -diagnóstico médico, logística, ajedrez...-, pero no tienen las habilidades prácticas derivadas del sentido común humano y del conocimiento del entorno. "Un niño enseguida entiende que puede mover un cochecito si tira de la cuerda al que está atado, pero no empujando del cordel porque éste no es rígido, algo elemental que un robot no sabe" y debe ir aprendido poco a poco, señala el responsable del IIAC. López de Mantaras señala que uno de los avances más sorprendentes en un ámbito ya sorprendente de por sí es el sistema informático Watson -desarrollado por IBM y que se presentará en Barcelona- que ganó el concurso de televisión Jeopardy! frente a competidores humanos. A través del acceso a millones de datos digitalizados, Watson fue capaz de responder a una pregunta a priori críptica para un ordenador: "este sombrero es elemental, querido concursante". En pocos segundos contestó: "sombrero de caza". Fue capaz de asociar la frase a las novelas de Conan Doyle, y a la prenda que llevaba Sherlock Holmes. Para Carles Sierra, profesor de investigación del CSIC y responsable de la organización de esta conferencia, hablar de inteligencia artificial es hacerlo de frigoríficos con sensores capaces de hacer pedidos a las tiendas cuando saben que les falta algún producto. Sierra apunta que en la próxima década se producirá una integración de los sistemas robotizados con percepción y visión, razonamiento, elementos motores, capacidad de búsqueda de información, aprendizaje e interacción con los humanos, reconocimiento de texto, y que incluso generarán capacidades nuevas.
Serán sistemas de inteligencia artificial que podrán aprender por ellos mismos y buscar información en la web de manera semántica. Así, podremos coger un teléfono, hacerle una pregunta y obtener una respuesta con sentido, no simplemente un listado de información muchas veces irrelevante.
Singularidad Tecnológica En futurología,
la singularidad
tecnológica
(algunas
veces
llamada
simplemente la Singularidad ) es un acontecimiento futuro en el que se predice que el progreso tecnológico y el cambio social se acelerarán debido al desarrollo de inteligencia superhumana, cambiando nuestro ambiente de manera tal, que cualquier ser humano anterior a la Singularidad sería incapaz de comprender o predecir. Dicho acontecimiento se ha nombrado así por analogía con la singularidad espaciotemporal observada en los agujeros negros, donde existe un punto en el que las reglas de la física dejan de ser válidas, y donde la convergencia hacia valores infinitos hace imposible el definir una función. El tiempo que resta antes de que se llegue a ese fenómeno se acelera con la utilización de máquinas para apoyar tareas de diseño o mejoras de diseño de nuevos inventos.
Historia Las consecuencias de semejante acontecimiento fueron discutidas durante la década de 1960 por I.J. Good, y John von Neumann quien usa el término “singularidad” para describir el progreso tecnológico durante la década de 1950. Sin embargo, no es sino hasta en los 80s que la Singularidad es popularizada por Vernor Vinge. Si la Singularidad ocurrirá o no, es un hecho muy debatido, pero la aproximación más común entre los futuristas la sitúa dentro de la tercera década del Siglo XXI. Otros, notablemente Raymond Kurzweil, han propuesto teorías que expanden la Ley de Moore hacia tipos de computación que van más allá de los simples transistores, sugiriendo un patrón exponencial de progreso tecnológico. Sin embargo Kurzweil
supone que el propio patrón de crecimiento cambia y la aceleración se hace mayor hasta el punto de adquirir un patrón de crecimiento hiperbólico. Lo cual es análogo al espacio hiperbólico de los agujeros negros. Según Kurzweil, este patrón culmina en un progreso tecnológico inimaginable en el Siglo XXI, el cual conduce a la Singularidad, un punto en el cual el crecimiento se hace infinito. El crecimiento hiperbólico es el patrón que algunos indican que sigue el aumento de la información y de hecho ha sido el ritmo en como ha venido creciendo la población mundial por lo menos hasta principios de siglo. Robert crecimiento
Anton de
la
Wilson generalizo
la
ley
información
el
nombre
bajo
del
del fenómeno del Jesús saltador, que se inspira en la idea de comenzar a contar los años a partir del nacimiento de Jesús, aunque también parece un nombre irónico y humorística, porque a medida que pasa el tiempo no son pocos los que siguen pensando en el fin del mundo y la inminente llegada de Jesús. Según Wilson, se inspiró en Alfred Korzybski, el autor de la Semántica General, quien habría observado que la información se duplicaba cada cierto tiempo. Korzybski tomo como base, de todo el conocimiento acumulado y disponible por la humanidad, el año 1 después de cristo, Wilson le llama el primer Jesús. La primera duplicación se habría dado durante el apogeo del renacimiento, con lo que se tendrían entonces 2 Jesús. La segunda en el año 1750, 4 Jesús y las siguientes en los años, 1900, 1950, 1960, 1967 y 1973. Para el 2000 se calculaba que la información se duplicaba 2 veces en un año. Sin embargo de acuerdo a otro estudio realizado por la Universidad de Berkeley en el año 2004 por los profesores Peter Lyman y Hal Varian, a instancias de Microsoft Research, Intel, HP y EMC, la información que se genera y se registra en el mundo aumenta a un ritmo de solamente 30% anual desde 1999.
Superestructura Tecnológica Las discrepancias surgen a partir de la consideración que se tenga sobre el impacto tecnológico en la sociedad. Si creemos que las tecnologías siempre serán una
infraestructura controlada por los humanos o aceptamos que dado su crecimiento acelerado, su cada vez mayor autonomía y su creciente inteligencia (a lo cual no se le ve limites), se pueda aceptar que se convertirán en una superestructura capaz de compartir las decisiones con los humanos. Por lo que se tienen cuatro enfoques: 1) Los que creen que la tecnología siempre será controlada por los humanos y el único peligro está en el mal uso que se le dé. Por lo que basta con limitar, prohibir o controlar la utilización de las mismas Desarrollo sostenible. 2) Los que creen que las tecnologías igualarán y superarán a los humanos, surgiendo una superinteligencia. Singularidad tecnológica 3) Los que aceptan que las tecnologías podrán ser una superestructura y creen que dado el contexto actual de poder, estas se convertirían en un competidor demasiado peligroso para los humanos, por lo cual hay que hacer todo lo posible para que esto no suceda. Bioconservadurismo 4) Los que ven a la tecnología como una aliada que nos pueda llevar a una superinteligencia colectiva donde humanos y tecnologías cooperen por un futuro sostenible Sostenibilidad tecnológica
Inteligencia suprahumana La idea de una singularidad, Vinge la sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicará cada dos años, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado conducirá inevitablemente a que las maquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un gráfico elaborado por Hans Moravec, la paridad entre el hardware y el cerebro se alcanzará alrededor del 2020 lo cual dará lugar a las maquinas ultra inteligentes.
Vinge define una máquina ultra inteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de este y está convencido de que esa inteligencia superior será la que impulsará el progreso y este será mucho más rápido e incluso superará a la actual evolución natural, por lo que aparecerán problemas miles de veces más deprisa que la selección natural y afirma que estaremos entrando en un régimen radicalmente diferente de nuestro pasado humano, y es a este evento al que le da el nombre de singularidad. El transhumanista Nick Bostrom define una superinteligencia de la siguiente forma: Tendrá superinteligencia cualquier intelecto que se comporte de manera bastamente superior en comparación con los mejores cerebros humanos en prácticamente todos los aspectos y en especial estos tres: • Creatividad científica. • Sabiduría en general. • Desempeño científico. Esta definición deja abierta la manera de cómo se implementa esa superinteligencia: • Artificial: una computadora digital. • Colectiva: una red de computadoras. • Biológica: cultivo de tejidos corticales. • Híbrida: fusión entre computadoras y humanos.
Caminos hacia la singularidad
Según el científico y escritor de ciencia ficción Vernor Vinge, la singularidad se puede alcanzar por diferentes caminos:
El desarrollo de un computador
que alcance el nivel de inteligencia humana y posteriormente lo supere (superinteligencia artificial).
El
desarrollo
de
redes
de
computadoras que se comporten como superneuronas de un cerebro distribuido que “despierte” como ente inteligente (superinteligencia colectiva).
El desarrollo de elementos de interacción con computadoras que permitan a un humano comportarse como un ser superinteligente (superinteligencia hibrida).
Manipulaciones biológicas que permitan mejorar en algunos seres el nivel humano de inteligencia (superinteligencia biológica)
Superinteligencia artificial Surgimiento de una superinteligencia artificial superior a la inteligencia humana. Estamos hablando de que los humanos sean capaces de construir una inteligencia artificial que los iguale y que después, esta inteligencia no humana, sea capaz de superarse a sí misma. Dado el crecimiento veloz que tiene el hardware (ley de Moore) y no en el desarrollo de programas que emularan la inteligencia humana como se pretendía en los primeros años de la Inteligencia artificial. Estamos hablando de una inteligencia artificial fuerte que supone que la consciencia es codificable (consideran que
los estados
mentales son algoritmos altamente
complejos)
y
puede
ser
descargada del cerebro y copiada en un soporte digital.
Superinteligencia colectiva Surgimiento de una superinteligencia colectiva donde estén conectados en redes los humanos y las maquinas, siguiendo las ideas de Pierre Levy de una inteligencia colectiva, en la que Internet está jugando un papel importante y ya algunos están hablando del surgimiento de un cerebro global que se está formando desde ahora en
el contexto de la Web 2.0 y de la naciente Web 3.0. No se puede ignorar el impacto que está teniendo la Web 2.0 y la gran cantidad de conocimiento que se está compartiendo en las Wikis, redes sociales y blogs y que se podrían ir autoorganizado por medio de laWeb semántica. Lo cual nos lleva a una superestructura tecnológica donde humanos y maquinas cooperan entre sí.
Superinteligencia hibrida Superinteligencia hibrida, Interconexión entre humanos y computadoras, tales como, prótesis, implantes de chip, etc. Lo cual nos lleva al Cyborg, donde se fusionan los humanos con las maquinas. La idea de una transhumanidad que transcienda a la condición humana y con ello superar todos los límites de la especie humana y dar surgimiento a una nueva especie posthumana. Esto nos arrastra a una singularidad fuerte donde humanos y maquinas se fusionan.
Superinteligencia biológica Superinteligencia biológica, mejoramiento humano por bioingeniería sobre todo modificaciones genéticas, dado que es una inteligencia mejorada por medio de la biología. Se aspira al humano mejorado (humano+) por medio de la bioingeniería. Esto ira conduciendo a la humanidad a una fusión progresiva y menos radical que la anterior. Si bien algunos autores, como Roger Penrose, piensan que las computadoras no llegarán a ser inteligentes (en el sentido de la prueba de Turing), el camino biológico para llegar a la singularidad tecnológica no parece tener límite alguno.
Fuente:
http://www.larazon.es/noticia/7810-la-mayor-autonomia-de-los-robots-
obligara-a-una-legislacion-especifica-para-ellos
5 ANALIZAR LOS RIESGOS DEL AVANCE DE LA INTELIGENCIA ARTIFICIAL PARA LA HUMANIDAD. Riesgos en la Inteligencia Artificial Los defensores de la singularidad son conscientes de las amenazas que esta implica y consideran los siguientes riesgos existenciales: •
Inteligencia artificial mal programada.
• Mal uso de la nanotecnología. • Mala utilización de la biotecnología. • Uso generalizado de las prótesis (convirtiéndose en un robot). robot). • Tecnologías autónomas que se escapan de las manos (maquinas que se auto construyen a sí mismas). De aquí que sacan la conclusión que es necesario tomar el control de la evolución humana y abalanzar hacia una transhumanidad. Proponen la sustitución de una especie humana obsoleta por otra especie “superior” con poderes ilimitados y que por medio de las tecnologías emergentes o convergentes (NBIC) se puede alcanzar la posthumanidad. Algunos autores que han observado el poder cada vez mayor de la tecnología informática están aún menos tranquilos sobre el resultado del futuro. El diseñador informático William Joy, por ejemplo, escribió un ensayo muy pesimista en Wired en 2000 que alegaba que es más probable que los humanos se destruyan a sí mismos con su tecnología que que creen una utopía ayudados por máquinas superinteligentes. Joy, un cofundador de Sun Microsystems, también lo cree así. “Yo no he dicho que seremos suplantados por algo”, ha declarado. “Creo “Creo que es más probable que se produzca una catástrofe catástrofe”. ”.
Además, hay un encarnizado debate sobre si estas máquinas podrían ser las “máquinas encantadoras”, del poema de Richard Brautigan, o algo mucho más oscuro, tipo Terminator. “Creo que el debate sobre si deberíamos construir e stos intelectos artificiales se convertirá en la cuestión política dominante del siglo ”, dice Hugo de Garis, un investigador australiano sobre inteligencia artificial.
Críticas Las principales críticas a la inteligencia artificial tienen que ver con su capacidad de imitar por completo a un ser humano. Estas críticas ignoran que ningún humano individual tiene capacidad para resolver todo tipo de problemas, y autores como Howard Gardner han propuesto que existen inteligencias múltiples. múltiples. Un sistema de inteligencia artificial debería resolver problemas. Por lo tanto es fundamental en su diseño la delimitación de los tipos de problemas que resolverá y las estrategias y algoritmos que utilizará para encontrar la solución. En los humanos la capacidad de resolver problemas tiene dos aspectos: los aspectos innatos y los aspectos aprendidos. Los aspectos innatos permiten por ejemplo almacenar y recuperar información en la memoria la memoria y los aspectos aprendidos el saber resolver un problema matemático mediante el algoritmo adecuado. Del mismo modo que un humano debe disponer de herramientas que le permitan solucionar ciertos problemas, los sistemas artificiales deben ser programados de modo tal que puedan resolver ciertos problemas. Muchas personas consideran que el test de Turing ha sido superado, citando conversaciones en que al dialogar con un programa de inteligencia artificial para chat para chat no saben que hablan con un programa. Sin embargo, esta situación no es equivalente a un test de Turing, que requiere que el participante esté sobre aviso de la posibilidad de hablar con una máquina.
Otros experimentos Otros experimentos mentales como la Habitación la Habitación china de John de John Searle han mostrado cómo una máquina podría simular pensamiento sin tener que tenerlo, pasando el test de Turing sin siquiera entender lo que hace. Esto demostraría que la máquina en realidad no está pensando, está pensando, ya ya que actuar de acuerdo con un programa preestablecido sería suficiente. Si para Turing el hecho de engañar e ngañar a un ser humano que intenta evitar que le engañen es muestra de una mente inteligente, Searle considera posible lograr dicho efecto mediante reglas definidas a priori. Uno de los mayores problemas en sistemas de inteligencia artificial es la comunicación con el usuario. Este obstáculo es debido a la ambigüedad del lenguaje, y apareció ya en los inicios de los primeros sistemas operativos informáticos. La capacidad de los humanos para comunicarse entre sí implica el conocimiento del lenguaje que utiliza el interlocutor. Para que un humano pueda comunicarse con un sistema inteligente hay dos opciones: o bien el humano aprende el lenguaje del sistema como si aprendiese a hablar cualquier otro idioma distinto al nativo, o bien el sistema tiene la capacidad de interpretar el mensaje del usuario en la lengua que el usuario utiliza. Un humano durante toda su vida aprende el vocabulario de su lengua nativa. Un humano interpreta los mensajes a pesar de la polisemia la polisemia de las palabras utilizando el contexto para resolver ambigüedades. Sin embargo, debe conocer los distintos significados para poder interpretar, y es por esto que lenguajes especializados y técnicos son conocidos solamente por expertos en las respectivas disciplinas. Un sistema de inteligencia artificial se enfrenta con el mismo problema, la polisemia del lenguaje humano, su sintaxis su sintaxis poco estructurada y los dialectos los dialectos entre grupos. Los desarrollos en inteligencia artificial son mayores en los campos disciplinares en los que existe mayor consenso entre especialistas. Un sistema experto es más probable de ser programado en física o en medicina que en sociología o en psicología. Esto se debe al problema del consenso entre especialistas en la definición de los conceptos involucrados y en los procedimientos y técnicas a utilizar. Por ejemplo, en física hay acuerdo sobre el concepto de velocidad y cómo calcularla. Sin embargo, en
psicología se discuten los conceptos, la etiología, la psicopatología y cómo proceder ante cierto diagnóstico. Esto dificulta la creación de sistemas inteligentes porque siempre habrá desacuerdo sobre lo que se esperaría que el sistema haga. A pesar de esto hay grandes avances en el diseño de sistemas expertos para el diagnóstico y toma de decisiones en el ámbito médico y psiquiátrico (Adaraga Morales, Zaccagnini Sancho, 1994).
La Inteligencia Artificial y los Sentimientos. El concepto de IA es aún demasiado difuso. Contextualizando, y teniendo en cuenta un punto de vista científico, podríamos englobar a esta ciencia como la encargada de imitar una persona, y no su cuerpo, sino imitar al cerebro, en todas sus funciones, existentes en el humano o inventadas sobre el desarrollo de una máquina inteligente. A veces, aplicando la definición de Inteligencia Artificial, se piensa en máquinas inteligentes sin sentimientos, que «obstaculizan» encontrar la mejor solución a un problema dado. Muchos pensamos en dispositivos artificiales capaces de concluir miles de premisas a partir de otras premisas dadas, sin que ningún tipo de emoción tenga la opción de obstaculizar dicha labor. En esta línea, hay que saber que ya existen sistemas inteligentes. Capaces de tomar decisiones «acertadas». Aunque, por el momento, la mayoría de los investigadores en el ámbito de la Inteligencia Artificial se centran sólo en el aspecto racional, muchos de ellos consideran seriamente la posibilidad de incorporar componentes «emotivos» como indicadores de estado, a fin de aumentar la eficacia de los sistemas inteligentes. Particularmente para los robots móviles, es necesario que cuenten con algo similar a las emociones con el objeto de saber –en cada instante y como mínimo – qué hacer a continuación [Pinker, 2001, p. 481].
Al tener «sentimientos» y, al menos potencialmente, «motivaciones», podrán actuar de acuerdo con sus «intenciones» [Mazlish, 1995, p. 318]. Así, se podría equipar a un robot con dispositivos que controlen su medio interno; por ejemplo, que «sientan hambre» al detectar que su nivel de energía está descendiendo o que «sientan miedo» cuando aquel esté demasiado bajo. Esta señal podría interrumpir los procesos de alto nivel y obligar al robot a conseguir el preciado elemento [Johnson-Laird, 1993, p. 359]. Incluso se podría introducir el «dolor» o el «sufrimiento físico», a fin de evitar las torpezas de funcionamiento como, por ejemplo, introducir la mano dentro de una cadena de engranajes o saltar desde una cierta altura, lo cual le provocaría daños irreparables. Esto significa que los sistemas inteligentes deben ser dotados con mecanismos de retroalimentación que les permitan tener conocimiento de estados internos, igual que sucede con los humanos que disponen de propiocepción, interocepción, nocicepción, etcétera. Esto es fundamental tanto para tomar decisiones como para conservar su propia integridad y seguridad. La retroalimentación en sistemas está particularmente desarrollada en cibernética, por ejemplo en el cambio de dirección y velocidad autónomo de un misil, utilizando como parámetro la posición en cada instante en relación al objetivo que debe alcanzar. Esto debe ser diferenciado del conocimiento que un sistema o programa computacional puede tener de sus estados internos, por ejemplo la cantidad de ciclos cumplidos en un loop o bucle en sentencias tipo do... for , o la cantidad de memoria disponible para una operación determinada. A los sistemas inteligentes el no tener en cuenta elementos emocionales les permite no olvidar la meta que deben alcanzar. En los humanos el olvido de la meta o el abandonar las metas por perturbaciones emocionales es un problema que en algunos casos llega a ser incapacitante. Los sistemas inteligentes, al combinar una memoria durable, una asignación de metas o motivación, junto a la toma de decisiones y asignación de prioridades con base en estados actuales y estados meta, logran un comportamiento en extremo eficiente, especialmente ante problemas complejos y peligrosos.
En síntesis, lo racional y lo emocional están de tal manera interrelacionados entre sí, que se podría decir que no sólo no son aspectos contradictorios sino que son –hasta cierto punto– complementarios.
Barbarossa, Carolina Introducción El siguiente ensayo no busca responder a uno de los grandes interrogantes de la ciencia moderna, sino que intentará entender un poco más acerca de los últimos desarrollos de la inteligencia artificial: cómo fueron evolucionando a través del tiempo, y qué es lo que nos espera para un futuro cercano. En mi opinión y conjuntamente con la tesis que propongo en este escrito, los seres humanos no serán capaces de poder construir un robot con capacidad de pensar y sentir como el homo sapiens de la actualidad. El cerebro humano es un órgano súper desarrollado, capaz de resolver situaciones y tomar decisiones complejas que ninguna otra especie conocida posee. De todos modos, estoy segura de que los profesionales en el área sí serán capaces de crear máquinas que tengan la habilidad de imitar el comportamiento y el pensamiento humano en los próximos años. El problema surge entonces frente a la posibilidad de que los robots alcancen un nivel de inteligencia sumamente elevado, de esta forma podrían obedecer a situaciones complejas, e incluso ser casi indetectables en relación a la apariencia humana. Hoy en día es muy común encontrar en películas de ciencia ficción y hasta en estudios muy avanzados, máquinas que intentan imitar el comportamiento de algunas actividades humanas. El objetivo de los científicos ya no es el de crear robots parecidos físicamente al homo sapiens, sino lograr que éstos tengan la capacidad de sentir, saber y pensar como los humanos mediante la inteligencia artificial. ¿Qué pasaría si estas máquinas inteligentes realmente se lograran y superaran la inteligencia humana? ¿Seríamos capaces de distinguir entre una persona concebida de forma natural, y
una completamente mecánica, pero con las mismas capacidades? En caso de que se llegara al desarrollo de un humano mecánico casi real, ¿serían necesarios derechos para robots?, ¿habría posibilidad de formar familias mitad orgánicas, mitad mecánicas? Todas estas y muchas otras preguntas son las que nos hacemos a la hora de pensar en un futuro no muy lejano. Hay quienes, como Pamela McCorduck y Edward Feigenbaum, creen que nosotros, los humanos, estamos preparando el mundo para una generación de robots mucho más avanzada que los homo sapiens denominada la quinta generación. ¿Qué es la Inteligencia Artificial? Esta disciplina nació formalmente en el año 1956, tras varios años previos de estudio, y puede definirse de diferentes maneras según el enfoque que se le quiera dar. Stuart Russel y Peter Norvig en su texto Inteligencia Artificial: Un enfoque moderno diferencian entre aquellos aspectos de la ciencia que se orientan a los procesos mentales y los que se vinculan al razonamiento para evocar a la conducta. Separan además, las acepciones que se desarrollan en función de la eficiencia humana, y aquellas en donde la racionalidad juega un rol importante. Podemos entender entonces que los científicos se han dividido en cuatro grandes enfoques: están los que creen que la inteligencia artificial puede entenderse como sistemas que piensan como humanos, “La interesante tarea de lograr que las computadoras piensen (…) máquinas con mente, en su amplio sentido literal” (Haugeland, 1985).
Están quienes entienden a la ciencia como sistemas que piensan racionalmente, “el estudio de los cálculos que permiten percibir, razonar y actuar” (Winston, 1992). Hay quienes
creen que la inteligencia artificial puede definirse como sistemas que actúan como humanos, “el arte de crear máquinas
con capacidad de realizar funciones que realizadas por personas requieren de inteligencia” (Kurzweil, 1990). Y por
último están los que creen que son sistemas que actúan racionalmente. “La rama de la ciencia de la computación que se ocupa de la automatización de la conducta inteligente”.
Pero para que las máquinas puedan imitar la mente humana, es necesario que primero entendamos cómo se comporta el pensamiento humano. Según Russel y Norvig, el primero en proponer un pensamiento racional fue el filósofo griego Aristóteles. Él intentó inducir un tipo de pensamiento “correcto” e irrefutable mediante silogismos, es decir “si A e igual a B, y B es igual a C, entonces A es igual a C”. Esto está estrechamente
relacionado con la Mayéutica de Sócrates, que propone indagar para conocer la verdad. Si bien esto es algo complejo, no nos resulta tan complicado a los humanos a la hora de desarrollar premisas, y de este modo tomar determinadas
decisiones. Las premisas son la base de un programa informático, según Theodore Roszak en El culto a la información. A la hora de realizar operaciones las máquinas siguen una serie de reglas tales como “esto es lo mismo que aquello; junta éstos” o “si esto es así, entonces aquello no es así; aquello puede eliminarse”. Quiere decir, entonces, que las operaciones
mecánicas se comportan parecido a la mente humana, solo que a una escala mucho menor. Hasta ahora, ya que aún no conocemos la magnitud que esta ciencia ha alcanzado en los últimos años. En el libro El Culto a la Información se incluye una cita de Joseph Weizenbaum que encuentro muy interesante por coincidir con mi postura: “Por mucha inteligencia que los ordenadores
puedan obtener ahora o en el futuro, la suya será siempre una inteligencia ajena a los auténticos problemas y preocupaciones humanos”. Creo que estas palabras están
muy acertadas dentro de la realidad de la tecnología, ya que en mi opinión nunca podrá lograrse un cerebro humano a no ser que sea concebido de forma natural. Sí podremos llegar a lograr clones exactos de una persona por medio de la clonación de células madre, pero ese sería un tema a discutir en otra oportunidad. ¿Qué proponen el cine y la literatura al respecto? Lo más interesante con respecto a la gran incógnita de saber cómo evolucionará la inteligencia artificial en los próximos años es poder analizar lo que proponen los directores de cine en películas del género de ciencia ficción. Algunas de las más controvertidas que plantean el problema de la inteligencia artificial como un post desarrollo de los seres humanos, son Inteligencia Artificial (Steven Spielberg, 2001), El Hombre Bicentenario (Christopher Columbus, 1999), Yo, Robot (Alex Proyas, 2004) y Blade Runner (Ridley Scout, 1982) entre tantas otras menos reconocidas. Las cuatro películas anteriores tienen como protagonistas a androides con un coeficiente intelectual muy elevado capaces de sentir, amar y pensar dependiendo el título. En Inteligencia Artificial, por ejemplo, Spielberg trata el tema de la ambigua relación amor-odio entre humanos y robots. El film cuenta la historia de un niño androide llamado David que desea con todas sus fuerzas poder ser un niño humano para así poder ganarse el amor de su madre adoptiva. Esta película trata muy de cerca las catástrofes provocadas por la arrogancia tecnológica. En cuanto a la inteligencia propiamente dicha de los androides, a diferencia de sus creadores, presentan virtudes propias de los humanos como ser la lealtad, la solidaridad, la inteligencia y la compasión. Según Spielberg, en
caso de que en algún momento de la historia se lograra crear un robot con capacidades humanas, los androides no serían superhombres destinados a convertirse en sucesores evolutivos del homo sapiens, solamente se trataría de eso: androides programados para amar. En la película nos encontramos con una gran ruptura de paradigmas, en los que los humanos están aprendiendo a amar a esos robots que aman. Algunos lo asumen más rápidamente que otros; la mamá adoptiva de David, por ejemplo, siente ternura por el androide, pero sin embargo no puede quererlo, ya que sabe que el amor que el niño siente por ella nunca será más que un “amor mecánico”, y por eso termina abandonándolo en el medio del bosque. Algo similar ocurre en El Hombre Bicentenario, en donde una familia del futuro compra a Andrew, una especie de androide mayordomo con una inteligencia súper desarrollada para ocuparse de los quehaceres de la casa. Como David, Andrew también quiere convertirse en un ser humano para poder experimentar sensaciones como reír, llorar y amar. Andrew consigue cambiar su aspecto de robot a uno prácticamente humano, y hacia el final de la historia logra modificar su cuerpo mecánico por uno orgánico. La película termina con la muerte humana del androide y su declaración como el ser humano más viejo de la historia. El paradigma de la inteligencia artificial está tratado más suavemente en esta película. Los humanos en general aceptan a Andrew como androide y también lo ayudan a convertirse en un ser humano real. En Blade Runner, una película basada en la novela corta de Philip Dick ¿Sueñan los androides con ovejas eléctricas?, los humanos buscan exterminar a los androides que son empleados de trabajos riesgosos o como esclavos. En la película, así también como en la novela, se presenta un aspecto de los robots hasta ahora no explorado y es la duración de su vida útil. Ambos David y Andrew en sus respectivas películas viven más de doscientos años. Dick propone otro número. Para él, los androides deberían vivir solamente cuatro años, periodo en el cual sus células se deteriorarían. De esta forma los humanos se asegurarían de que los robots nunca obtengan un mayor nivel de inteligencia y poder en la sociedad. Tanto en Blade Runner como en Yo, Robot se trata el tema de la violencia de los androides para con sus creadores. El androide Roy Batty tiene un enfrentamiento con su diseñador, el doctor Tyrell, mientras que en Yo, Robot se trata de un androide que planea una rebelión del mundo mecánico para matar a los humanos. De esta manera, nos adentramos en otra pregunta controversial a la hora de pensar en la adquisición de una inteligencia artificial similar a la de los humanos: ¿Si los robots tuvieran un coeficiente intelectual igual o mayor
al de los homo sapiens, cabría la posibilidad de que éstos se rebelaran contra sus creadores para así obtener el poder absoluto y derrocar a la sociedad humana? En mi opinión, esto podría suceder. Yo creo que, como la ciencia lo está demostrando, los robots están siendo creados para facilitar y alivianar las tareas de los humanos. El principal objetivo de la tecnología hoy en día es lograr máquinas inteligentes que puedan solucionar los problemas cotidianos de la gente, es decir, construir súper mucamas, mayordomos, albañiles, constructores y así sucesivamente. En caso de lograr un androide con inteligencia superior nos encontraríamos en la disyuntiva de creer que los mismos aceptarían con gusto la idea de servir a los humanos o no. Cabe la posibilidad de que, como lo propone Alex Proyas en Yo, Robot, hubiera máquinas que quisieran rebelarse contra los humanos. También está la posibilidad de que los androides asuman su posición dentro de la sociedad, y los humanos podamos vivir por siempre ante el servicio de los robots. Ahora, ¿que sucedería si, como en el típico cuento en que el príncipe heredero del trono se enamora de la plebeya criada, hubiera humanos y androides decididos a formar parejas? Colombus en El Hombre Bicentenario propone esta cuestión moral. El androide Andrew se enamora de Portia, la bisnieta humana de su amo humano y tras unas ideas y vueltas, terminan juntos como pareja. ¿La sociedad aceptaría estás relaciones mecánicas-orgánicas o las pondría en tela de juicio como lo hace con las relaciones homosexuales? ¿Pueden pensar las máquinas? Al preguntarse si las máquinas serían capaces de pensar Russel Stuart propone un término interesante: aI débil. Este término propone dos afirmaciones que complicarán un poco el trabajo de los científicos para los próximos años. Russel afirma que, “hay cosas que las computadoras no pueden hacer, independientemente de cómo se les programe”, y “ciertas formas de
diseñar programas inteligentes están condenadas al fracaso tarde o temprano”. Teniendo en consideración estas afirmaciones,
la idea más acertada sería pensar que nunca se va a lograr que las máquinas tengan un pensamiento al menos similar al humano. Alan Turing, reconocido científico del área propone en su más famoso escrito Computing Machinery and Intelligence que no hay que preguntarse si las máquinas pueden pensar, si no que si serían capaces de pasar una prueba conductual. Lo que luego se llamó la Prueba de Turing, proponía que una máquina fuera capaz de conversar ante un interrogatorio por cinco minutos para el año 2000; y de hecho, en parte se logró. Se concluye entonces, que las máquinas en realidad sí puedan
pensar, aunque nunca podrán tener sentido del humor, enamorarse, aprender de la experiencia, saber distinguir lo bueno de lo malo y otras actitudes propias del humano Inteligencia Artificial: Un Enfoque Moderno dedica su último capítulo a preguntarse qué sucedería si se concibieran máquinas capaces de pensar. Nos damos cuenta que preguntas tales como “¿Deberían tener las máquinas sus propios d erechos?” o “¿Cómo interaccionarían las máquinas inteligentes con los seres humanos?” o “¿Qué sucedería si las máquinas
inteligentes deciden trabajar en contra de los intereses de los seres humanos?” salen a flote y deben ser tenidas en cuenta.
Entonces es cuando nos preguntamos si es conveniente seguir con este proyecto, arriesgarse y seguir hacia un camino desconocido y creer que lo que puede llegar a suceder no será negativo. Russel y Norvig ven a este mundo desconocido como algo un poco más optimista. Ellos opinan que las máquinas inteligentes son capaces de “mejorar las circunstancias materiales en las que se desenvuelve la vida humana” y que de ninguna manera
podrán afectar nuestra calidad de vida de manera negativa. Siempre cabe la posibilidad de que esto se desarrolle de manera positiva o que las máquinas afecten el crecimiento de los niños, y generen más estrés en los adultos. El resto, opinan los autores, “no parece ser tan terriblemente negativo”.
Conclusiones Al comienzo de este ensayo poco sabía acerca de esta apasionante ciencia que es la inteligencia artificial conjuntamente con la ciencia cognitiva. Creía que se trataba solamente de poder lograr robots casi humanos por medio de clonación de células e imitación del funcionamiento del cerebro humano. En mi opinión, pensaba que quizás en algún momento se pudiese lograr esto que yo imaginaba, aunque no estaba segura de en cuánto tiempo se haría realidad. Ahora me doy cuenta que en mi cabeza no rondaba más que un nuevo guión para una película de ciencia ficción. Luego de haber analizado y estudiado al menos lo básico de lo que se trata esta disciplina, entiendo que no solamente se trata de poder lograr pensamiento y sentimiento, sino que la inteligencia artificial también aplica a poder imitar el comportamiento humano. Existen teorías que creen que se trata de imitar el cerebro y otras que se inclinan más por cómo actúa el ser humano más que cómo razona. Está claro que es una tarea mucho más fácil si creemos que la última acepción de la inteligencia artificial es la más acertada. De hecho, y gracias a la globalización, nos damos cuenta que muchas máquinas inteligentes ya pueden imitar los comportamientos humanos para así poder facilitar y alivianar los
problemas de la sociedad. El tema que se buscaba tratar en este ensayo es un poco más complicado ya que al no poder estar totalmente seguros de que realmente se va a poder concebir una máquina capaz de sentir y pensar, tampoco podemos imaginar con total libertad qué sucedería con ellas y con su relación con la personas, en caso de que existiesen. Por eso es que es mucho más fácil valerse de aquellos grandes visionarios que ya imaginaron y propusieron sus perspectivas, es decir, los directores de cine y los escritores de ciencia ficción. Ellos nos dan un panorama tan claro y tan vivaz, que hasta muchos de nosotros creemos, por momentos, que esa es la realidad. Pero el tema se torna mucho más ético y moral a la hora de realmente imaginar cómo sería el mundo si tuviéramos que convivir con personas que por fuera parecerían reales, que actuarían y pensarían como seres humanos, pero que por dentro sólo serían robots. Es interesante imaginar, aunque cada uno tiene la libertad de creer lo que le parezca. En mi opinión, me divertiría la idea de convivir con estos androides, aunque, como le pasaba a la mamá de David en Inteligencia Artificial, no creo estar preparada para aceptarlos, y mucho menos para amarlos. Para mi sólo seguirían siendo máquinas súper inteligentes. Bibliografía Russel Stuart et al. Norvig Peter (1996). Inteligencia Artificial: Un Enfoque Moderno. México: Prentice Hall Hispanoamérica. Roszak, Theodore (2005). El culto a la Información: Un tratado sobre alta tecnología, inteligencia artificial y el verdadero arte de pensar. Barcelona: Gedisa, Alan Turing (1950). Computing Machinery and Intelligence. Inglaterrra: Mind. Inteligencia Artificial (Steven Spielberg, 2001) El Hombre Bicentenario (Christopher Columbus, 1999) Yo, Robot (Alex Proyas, 2004) Blade Runner (Ridley Scout, 1982) Dick Philip K. (1968). ¿Sueñan los androides con ovejas eléctricas? A medida que la tecnología ha ido avanzando, y los dispositivos que nos rodean (desde coches a relojes, pasando por refrigeradores y termostatos) han ido ganando en “inteligencia”, un temor ha ido creciendo en algunos seres humanos, que en dicho avance han visto también una amenaza. Se trata, claro, de la rebelión de las máquinas, un escenario apocalíptico en el que, alcanzado el umbral de la autoconsciencia, y desarrollados los mecanismos necesarios para “evolucionar”, las máquinas decidirían que “ya está bien” de permanecer sometidas a lo dictado por el ser humano, especialmente si eso atenta contra intereses mayores. No es baladí que el padre del concepto de cerebro positrónico, Isaac Asimov, lo fuera también de las tres leyes de la robótica , que aún hoy
en día siguen siendo empleadas no sólo en todo tipo de creaciones de ciencia ficción, sino
en planteamientos teóricos de cómo deben comportarse las formas de vida artificial. Dicho conjunto de reglas, que son de obligado cumplimiento para cualquier robot (entiéndase como tal un dispositivo electrónico con capacidad de toma de decisiones), tienen la finalidad de proteger a los seres humanos, por encima de cualquier otro criterio: 1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño. 2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley 3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
Sin embargo, y al igual que ocurre con el cerebro positrónico, un enfoque científico de los postulados de Asimov los deja un poco “cojos” y, consecuentemente, ese “seguro de vida”
que supondría la aplicación de normas proteccionistas para con los seres vivos, queda en entredicho. Así, no es de extrañar que determinadas voces, algunas de ellas fuera de cualquier tipo de duda, planteen que existen riesgos. Tal es el caso de Stephen Hawking, que ha afirmado en un editorial en The Independent, que el desarrollo de la inteligencia artificial puede ser el mayor logro de la humanidad… pero también el último. En dicho texto, que puedes ver online aquí, el científico menciona que los actuales sistemas de inteligencia artificial , y que tienen su máximo exponente en tecnologías como Siri, los coches sin conductor de Google y similares, es sólo la cabeza del iceberg. En sus pro pias palabras “Will all “pale against what the coming decades will bring ” es decir, que palidecerán en comparación con lo que veremos llegar en las próximas décadas. Los enormes esfuerzos para avanzar en esa línea de investigación, prometen resultados muy efectivos a medio plazo, y están llamados a revolucionar (de nuevo) nuestra sociedad. Sin embargo,”…it might also be the last, unless we learn how to avoid the risks.“. Y esto es lo que más preocupa a Hawking: ver que gobiernos, grandes empresas y, en general, sociedad, no se están preparando para esa revolución que viene. Y en un párrafo, sin duda destacable, dice lo siguiente: “If a superior alien civilization sent us a message saying, „We‟ll arrive in a few decades‟, would we just reply, „OK, call us when you get here – we‟ll leave the lights on‟? Probably not – but this is more or less what is happening with AI,”
Traducido: Si una civilización alienígena superior (más evolucionada) nos enviase un mensaje diciendo “Llegaremos (a la Tierra) en unas décadas”, ¿simplemente responderíamos “Ok, avisad cuando lleguéis, dejaremos las luces encendidas?
Probablemente no, pero eso es más o menos lo que está sucediendo con la inteligencia artificial. Lo único que nos puede salvar de esos posibles riesgos es, claro, conocerlos, y para tal fin es necesario que se dediquen muchos esfuerzos de investigación (y económicos, claro está), tanto a las pocas entidades (tanto públicas como privadas) que ya están trabajando en este sentido, pues sólo identificando los riesgos y preparando una respuesta para los mismos, se podrá actuar llegado el momento. Por ejemplo, un aspecto particularmente preocupante es
el relacionado con los trabajos. A día de hoy, bastantes actividades que hasta hace poco tiempo eran llevadas a cabo por humanos, ahora están en manos de máquinas. Sin embargo, esto podría crecer de manera exponencial, a medida que la inteligencia de las máquinas fuera “superior”. E, incluso antes que eso, en el corto plazo, otro aspecto que
preocupa seriamente a Hawking es el de las armas inteligentes: “In the near term, world militaries are considering autonomous-weapon systems that can
choose and eliminate targets; the UN and Human Rights Watch have advocated a treaty banning such weapons.”
Es decir, que los militares podrían estar pensando (y trabajando) en sistemas totalmente autónomos, capaces de elegir objetivos y destruirlos. Naciones Unidas y Derechos Humanos (Human Rights Watch) han planteado tratados para la prohibición (antes incluso de que existan) de este tipo de armas, pero ya es sabido que no son pocos los países que no reconocen a ambas entidades o que, incluso en el caso de hacerlo, no llevan a rajatabla todas sus propuestas. Termina su editorial Hawking, enumerando las instituciones que sí que están trabajando en la identificación de los posibles riesgos (Cambridge Centre for the Study of Existential Risk , Future of Humanity Institute, Machine Intelligence Research Institute y Future of Life Institute), entidades todas sin ánimo de lucro. Y, al final, una invitación de la que todos somos partícipes: All of us should ask ourselves what we can do now to improve the chances of reaping the benefits and avoiding the risks. Todos nosotros debemos preguntarnos qué podemos hacer para mejorar las posibilidades de aprovechar las las ventajas y, al tiempo, evitar los riesgos. Quizá sea necesaria una conciencia global sobre dichos riesgos. A día de hoy, investigadores especializados en inteligencia artificial, afirman que la tecnología todavía está “muy verde”, lo que nos deja un margen de maniobra más que suficiente. Sin embargo, tampoco dudan en plantear la posibilidad de una rápida evolución de la misma, sobre todo si la investigación empieza a recibir más fondos, algo más que factible dadas las circustancias actuales. No es algo a pasar por alto, en cualquier caso. Los riesgos planteados por Hawking tienen una base muy sólida, así que más nos vale empezar a pensar en cómo adelantarnos a ellos. Cualquier descuido al respecto puede tener consecuencias inimaginables.
Fuente: The Independent Imagen: Robert Couse-Baker Conclusiones
Es un hecho que las nuevas tecnologías han ido sustituyendo a las personas en el trabajo; que la dependencia que provocan y su mal uso están volviendo perezosos los cerebros de las personas, en especial de niños y jóvenes. Eso, aunado a la pedagogía del mínimo esfuerzo, están evitando que el ser humano desarrolle su inteligencia al máximo. Por lo