INSTITUTO DEL
ESPECIALIDAD: Ing. En sistemas Computacionales ASIGNATURA: Inteligencia Artificial TEA: o!elos !e Agente Inteligente CATEDRATIC": Ing. #la$io A%uiles Rui& Cela'a INTEGRANTES DEL E(UIP": Carolina )etan&os L*pe& ar+a Gua!alupe Gi,*n Gon&-le& It&el Tole!o L*pe& Cintia /enegas emi,e Areli ora "li$era 0uan Carlos atus Rui& 0ulio Garc+a P1re&
GRUP": 234
5 SEESTRE
HEROICA CIUDAD DE JUCHITAN DE ZARAGOZA, OAXACA A 14 DE SEPTIEMBRE DEL 2015
UNIDAD 1.- FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL 1.4 Modelos de Agente Inteligente 1.4.1 Agentes y su entono Un agente es cualquier cosa capaz de percibir su medio ambiente con la ayuda de sensores y actuar en ese medio utilizando actuadores. La Figura siguiente ilustra esta idea simple.
Un agente humano tiene ojos, oídos y otros órganos sensoriales además de manos, piernas, boca y otras partes del cuerpo para actuar. Un agente robot recibe pulsaciones del teclado, archivos de inormación y paquetes vía red a modo de entradas sensoriales y act!a sobre el medio con mensajes en el monitor, escribiendo icheros y enviando paquetes por la red. "e trabajara con la hipótesis general de que cada agente puede percibir sus propias acciones #pero no siempre sus eectos$. %l termino percepción se utiliza en este conte&to para indicar que el agente puede recibir entradas en cualquier instante. La secuencia de percepciones de un agente releja el historial completo de lo que el agente ha recibido. %n general, un agente tomara una decisión en un momento dado dependiendo de la secuencia completa de percepciones hasta ese instante. "i se puede especiicar que decisión tomara un agente para cada una de las posibles secuencias de percepciones, entonces se habrá e&plicado más o menos todo lo que se puede decir de un agente. %n t'rminos matemáticos se puede decir que el comportamiento del agente viene dado por la unción del agente que proyecta una percepción dada en una acción.
1.4.! "uen #o$%ot&$iento' el #on#e%to de ion&lid&d Un agente racional aquel que hace lo correcto( en t'rminos conceptuales, cada elemento de la tabla que deine la unción del agente se tendría que rellenar correctamente. )bviamente, hacer lo correcto es mejor que hacer algo incorrecto, pero *qu' signiica hacer lo correcto+ omo primera apro&imación, se puede decir que lo correcto es aquello que permite al agente obtener un resultado mejor. -or tanto, se necesita determinar una orma de medir el '&ito.
Medid&s de endi$iento
Las medidas de rendimiento incluyen los criterios que determinan el '&ito en el comportamiento del agente. uando se sit!a un agente en un medio, este genera una secuencia de acciones de acuerdo con las percepciones que recibe. %sta secuencia de acciones hace que su hábitat pase por una secuencia de estados. "i la secuencia es la deseada, entonces el agente habrá actuado correctamente. )bviamente, no hay una !nica medida adecuada para todos los agentes. "e puede preguntar al agente por su opinión subjetiva acerca de su propia actuación, pero muchos agentes serían incapaces de contestar, y otros podrían engaarse a sí mismos.
Rion&lid&d
La racionalidad en un momento determinado depende de cuatro actores/
0 La medida de rendimiento que deine el criterio de '&ito. 0 %l conocimiento del medio en el que habita acumulado por el agente. 0 Las acciones que el agente puede llevar a cabo. 0 La secuencia de percepciones del agente hasta este momento.
%sto nos lleva a la deinición de agente racional/
%n cada posible secuencia de percepciones, un agente racional deberá emprender aquella acción que supuestamente ma&imice su medida de rendimiento, basándose en las evidencias aportadas por la secuencia de percepciones y en el conocimiento que el agente mantiene almacenado.
1.4.( Estu#tu& de los &gentes Los programas de los agentes que se describen en este libro tienen la misma estructura/ reciben las percepciones actuales como entradas de los sensores y devuelven una acción a los actuadores. 1ay que tener en cuenta la dierencia entre los programas de los agentes, que toman la percepción actual como entrada, y la unción del agente, que recibe la percepción histórica completa. Los programas de los agentes reciben solo la percepción actual como entrada porque no hay nada más disponible en el entorno( si las acciones del agente dependen de la secuencia completa de percepciones, el agente tendría que recordar las percepciones. Los programas de los agente se describirán con la ayuda de un sencillo lenguaje seudocódigo que se deine en el 2p'ndice 3. %l repositorio de código disponible en 4nter net contiene implementaciones en lenguajes de programación reales. -or ejemplo, la Figura 5.6 muestra un programa de agente muy sencillo que almacena la secuencia de percepciones y despu's las compara con las secuencias almacenadas en la tabla de acciones para decidir qu' hacer. La tabla representa e&plícitamente la unción que deine el programa del agente. -ara construir un agente racional de esta orma, los diseadores deben realizar una tabla que contenga las acciones apropiadas para cada secuencia posible de percepciones.
%n lo que resta de esta sección se presentan los cuatro tipos básicos de programas para agentes que encarnan los principios que subyacen en casi todos los sistemas inteligentes. 0 2gentes reactivos simples. 0 2gentes reactivos basados en modelos. 0 2gentes basados en objetivos. 0 2gentes basados en utilidad.
7espu's se e&plica, en t'rminos generales, como convertir todos ellos en agentes que aprendan.
Agentes eti)os si$%les
%l tipo de agente más sencillo es el &gente eti)o si$%le. %stos agentes seleccionan las acciones sobre la base de las percepciones actuales, ignorando el resto de las percepciones históricas. La Figura 5.8 muestra el programa para este agente. 1ay que tener en cuenta que el programa para el agente aspiradora es muy pequeo comparado con su tabla correspondiente. La reducción más clara se obtiene al ignorar la historia de percepción, que reduce el n!mero de posibilidades de 9r asolo 9. )tra reducción se basa en el hecho de que cuando la cuadricula actual está sucia, la acción no depende de la localización. 4magínese que es el conductor del ta&i automático. "i el coche que circula delante rena, y las luces de reno se encienden, entonces lo advertiría y comenzaría a renar. %n otras palabras, se llevaría a cabo alg!n tipo de procesamiento sobre las seales visuales para establecer la con dición que se llama #%l coche que circula delante está renando$. %sto dispara algunas cone&iones establecidas en el programa del agente para que se ejecute la acción #iniciar renado$. %sta cone&ión se denomina egl& de #ondi#ion-#ion y se representa por
si el:coche:que:circula:delante:esta:renando enton#es iniciar:renada.
La Figura 5.; presenta la estructura de este programa general de orma esquemática, mostrando como las reglas de condicion:accion permiten al agente generar la cone&ión desde las percepciones a las acciones.
%l programa del agente, que es tambi'n muy simple, se muestra en la Figura 5.<=. La unción 4nterpretar:%ntrada genera una descripción abstracta del estado actual a partir de la percepción, y la unción >egla:oincidencia devuelve la primera regla del conjunto de reglas que coincide con la descripción del estado dada.
Agentes eti)os *&s&dos en $odelos
La orma más eectiva que tienen los agentes de manejar la visibilidad parcial es almacenar inormación de las partes del mundo que no pueden ver o lo que es lo mismo, el agente debe mantener alg!n tipo de estado interno que dependa de la historia percibida y que de ese modo releje por lo menos alguno de los aspectos no observables del estado actual. -ara el problema de los renos, el estado interno no es demasiado e&tenso, solo la otograía anterior de la cámara, acilitando al agente la detección de dos luces rojas encendi'ndose y apagándose simultáneamente a los costados del vehículo. -ara mantener inormación de la posición del resto de los coches si no los puede ver. La actualización de la inormación de estado interno seg!n pasa el tiempo requiere codiicar dos tipos de conocimiento en el programa del agente. -rimero, se necesita alguna inormación acerca de cómo evoluciona el mundo independientemente del agente, por ejemplo, que un coche que está adelantando estará más cerca, detrás, que en un momento inmediatamente anterior. "egundo, se necesita más inormación sobre cómo aectan al mundo las acciones del agente, por ejemplo, que cuando el agente gire hacia la derecha, el coche gira hacia la derecha o que despu's de conducir durante cinco minutos hacia el norte en la autopista se avanzan cinco millas hacia el norte a partir del punto en el que se estaba cinco minutos antes. %ste conocimiento acerca de cómo unciona el mundo, tanto si esta implementado con un circuito booleano simple o con teorías cientíicas completas, se denomina $odelo del mundo. Un agente que utilice este modelo es un &gente *&s&do en $odelos.
La Figura 5.<< proporciona la estructura de un agente reactivo simple con estado interno, muestra como la percepción actual se combina con el estado interno antiguo para generar la descripción actualizada del estado actual.
Agentes *&s&dos en o*+eti)os
%l conocimiento sobre el estado actual del mundo no es siempre suiciente para decidir qu' hacer. -or ejemplo, en un cruce de carreteras, el ta&ista puede girar a la izquierda, girar a la derecha o seguir hacia adelante. La decisión correcta depende de dónde quiere ir el ta&i. %n otras palabras, además de la descripción del estado actual, el agente necesita sita alg!n tipo de inormación sobre su $et& que describa las situaciones que son deseables, por ejemplo, llegar al destino propuesto por el pasajero. %l programa del agente se puede combinar con inormación sobre los resultados de las acciones posibles #la misma inormación que se utilizó para actualizar el estado interno en el caso del agente rele&ivo$ para elegir las acciones que permitan alcanzar el objetivo. La Figura 5. muestra la estructura del agente basado en objetivos.
%n algunas ocasiones, la selección de acciones basadas en objetivos es directa, cuando alcanzar los objetivos es el resultado inmediato de una acción individual. %n otras ocasiones, puede ser más complicado, cuando el agente tiene que considerar secuencias complejas para encontrar el camino que le permita alcanzar el objetivo.
2unque el agente basado en objetivos pueda parecer menos eiciente, es más le&ible ya que el conocimiento que soporta su decisión está representado e&plícitamente y puede modiicarse. "i comienza a llover, el agente puede actualizar su conocimiento sobre cómo se comportan los renos( lo cual implicara que todas las ormas de actuar relevantes se alteren automáticamente para adaptarse a las nuevas circunstancias. -ara el agente reactivo, por otro lado, se tendrán que rescribir muchas reglas de condicion:accion. %l comportamiento del agente basado en objetivos puede cambiarse ácilmente para que se dirija a una localización dierente. Las reglas de los agentes reactivos relacionadas con cuando girar y cuando seguir recto son válidas solo para un destino concreto y tienen que modiicarse cada vez que el agente se dirija a cualquier otro lugar distinto.
Agentes *&s&dos en utilid&d
Una ,un#in de utilid&d proyecta un estado #o una secuencia de estados$ en un numero de utilidad permite tomar decisiones racionales en dos tipos de casos en los que las metas son inadecuadas. -rimero, cuando haya objetivos conlictivos, y solo se puedan alcanzar algunos de ellos #por ejemplo, velocidad y seguridad$, la unción de utilidad determina el equilibrio adecuado. "egundo, cuando haya varios objetivos por los que se pueda guiar el agente, y ninguno de ellos se pueda alcanzar con certeza, la utilidad proporciona un mecanismo para ponderar la probabilidad de '&ito en unción de la importancia de los objetivos.
La Figura 5.<9 muestra la estructura de un agente basado en utilidad. %n la -arte 4@ aparecen programas de agentes basados en utilidad, donde se presentan agentes que toman decisiones y que deben trabajar con la incertidumbre inherente a los entornos parcialmente observables.
Agentes ue &%enden
Un agente que aprende se puede dividir en cuatro componentes conceptuales, tal y como se muestra en la Figura 5.
se responsabiliza de la selección de acciones e&ternas. %l elemento de actuación es lo que anteriormente se había considerado como el agente completo/ recibe estímulos y determina las acciones a realizar. %l elemento de aprendizaje se realimenta con las #0ti#&s sobre la actuación del agente y determina como se debe modiicar el elemento de actuación para proporcionar mejores resultados en el uturo.
%l diseo del elemento de aprendizaje depende mucho del diseo del elemento de actuación. uando se intenta disear un agente que tenga capacidad de aprender, la primera cuestión a solucionar no es .como se puede ensenar a aprender+, sino *qu' tipo de elemento de actuación necesita el agente para llevar a cabo su objetivo, cuando haya aprendido como hacerlo+ 7ado un diseo para un agente, se pueden construir los mecanismos de aprendizaje necesarios para mejorar cada una de las partes del agente.
La crítica indica al elemento de aprendizaje que tal lo está haciendo el agente con respecto a un nivel de actuación ijo. La crítica es necesaria porque las percepciones por si mismas no prev'n una indicación del '&ito del agente.
%l !ltimo componente del agente con capacidad de aprendizaje es el gene&do de %o*le$&s. %s responsable de sugerir acciones que lo guiaran hacia e&periencias nuevas e inormativas. Lo interesante es que si el elemento de actuación sigue su camino, puede continuar llevando a cabo las acciones que sean mejores, dado su conocimiento. -ero si el agente está dispuesto a e&plorar un poco, y llevar a cabo algunas acciones que no sean totalmente optimas a corto plazo, puede descubrir acciones mejores a largo plazo. %l trabajo del generador de problemas es sugerir estas acciones e&ploratorias.
"i*liog&,0&
"tuart >., -eter B., #5==9$, 4nteligencia 2rtiicial un %noque Coderno, -earson %ducación, ".2., Cadrid, %ditorial -rentice 1all. 2ntonio 3., #5==6$, 4nteligencia 2rtiicial lásica, Cadrid, %ditorial %scolar y Cayo.