Inteligencia Artificial y Redes Neuronales Artificiales Berti, Julia Robledo, Sebastián
FUNCION DE ACTIVACIÓN Entre las unidades o neuronas que forman una red neuronal artificial exis existe te un conj conjun unto to de cone conexi xion ones es que que las unen unen.. Cada Cada unid unidad ad tran transm smit ite e seña señale les s a aque aquell llas as que que está están n cone conect ctad adas as a su sali salida da.. Asociada con cada unidad Uj hay una función de activación (Fact), que transforma la entrada neta que la unidad presenta como resultado de estar conectada con otras unidades que le suministran información, en el valor de salida Yj.
Figu Figura ra 1. Calc Calcul ulo o de la sali salida da eval evalua uand ndo o la neta neta en la func funció ión n de Activación. Entre las funciones de activación más utilizadas se tienen:
Función de Activación Lineal
Figura 2. Función de Activación Lineal con su expresión matemática.
Inteligencia Artificial y Redes Neuronales Artificiales Berti, Julia Robledo, Sebastián
Función de Activación Sigmoidal
Figura 3. Función de Activación Sigmoidal con su expresión matemática.
Función de Activación Sigmoidal Bipolar o Tangente Sigmoidal
Figura 4. Función de Activación Sigmoidal Bipolar con su expresión matemática.
Inteligencia Artificial y Redes Neuronales Artificiales Berti, Julia Robledo, Sebastián
Función de Activación Escalón
Figura 5. Función de Activación Escalón con su expresión matemática
En MatLab se encuentran las siguientes funciones de transferencia: compet hardlim hardlims logsig netinv poslin purelin radbas radbasn satlin satlins softmax tansig tribas
Competitive transfer function Hard-limit transfer function Symmetric hard-limit transfer function Log-sigmoid transfer function Inverse transfer function Positive linear transfer function Linear transfer function Radial basis transfer function Normalized radial basis transfer function Saturating linear transfer function Symmetric saturating linear transfer function Soft max transfer function Hyperbolic tangent sigmoid transfer function Triangular basis transfer function
Inteligencia Artificial y Redes Neuronales Artificiales Berti, Julia Robledo, Sebastián
Los gráficos que corresponden a cada una de las funciones son los siguientes:
Inteligencia Artificial y Redes Neuronales Artificiales Berti, Julia Robledo, Sebastián
Inteligencia Artificial y Redes Neuronales Artificiales Berti, Julia Robledo, Sebastián
De éstas, las más empleadas son las mencionadas a continuación: - Función escalón - Función lineal y mixta - Sigmoidal - Función radial (gaussiana) La función escalón únicamente se utiliza cuando las salidas de la red son binarias. La salida de una neurona se activa sólo cuando el estado de activación es mayor o igual a cierto valor umbral. La función lineal o identidad equivale a no aplicar función de salida. Las funciones mixta y sigmoidal son las más apropiadas cuando se quiere como salida información analógica. Aplicaciones de las funciones más comunes:
Función escalón La función escalón se asocia a neuronas binarias en las cuales cuando la suma de las entradas es mayor o igual que el umbral de la neurona, la activación es 1, si es menor, la activación es 0 (ó –1). Las redes formadas por este tipo de neuronas son fáciles de implementar en hardware, pero sus capacidades están limitadas. Se usa comúnmente en problemas de clasificación.
Función lineal o mixta Se usa en problemas de aproximación o estimación lineal. La función lineal o mixta corresponde a la función F(x) =x. En las neuronas con función mixta si la suma de las señales de entrada es menor que un límite inferior, la activación se define como 0 (ó –1). Si dicha suma es
Inteligencia Artificial y Redes Neuronales Artificiales Berti, Julia Robledo, Sebastián
mayor o igual que el límite superior, entonces la activación es 1. Si la suma de entrada está comprendida entre ambos límites, la activación se define como una función lineal de suma de las señales de entrada. Neuronas que emplean esta función de transferencia son empleadas en la reds tipo Adeline.
Función sigmoidal Se usa en problemas de aproximación. Cualquier función definida simplemente en un intervalo de posibles valores de entrada, con un incremento monotónico y que tengan ambos limites superiores e inferiores (por ejemplo las funciones sigmoidal y arco tangente), podrá realizar la función de activación o transferencia de forma satisfactoria. Con la función sigmoidal, para la mayoría de los valores del estímulo de entrada, el valor dado por la función es cercano a uno de los valores asintóticos. Esto hace posible que en la mayoría de los casos, el valor de salida esté comprendido en la zona alta o baja del sigmoide. De hecho cuando la pendiente es elevada, esta función tiende a la función escalón. La importancia de ésta función es que su derivada es siempre positiva y cercana a cero para los valores grandes positivos o negativos; además toma su valor máximo cuando x es cero. Esto hace que se puedan utilizar las reglas de aprendizaje definidas para la función escalón, con la ventaja respecto a esta función, que la derivada está definida para todo el intervalo. La función escalón no podía definir la derivada en ele punto de transición y esto no ayuda a los métodos de aprendizaje en los cuales se usan derivadas. El uso de esta función de transferencia es común en redes multicapas, como la backpropagation.
Función de transferencia radial (gaussiana) Los centros y anchura de estas funciones pueden ser adaptados, lo cual las hace más adaptativas que las funciones sigmoidales. Se usan comúnmente en problemas de clasificación, aunque generalmente son para problemas de mapeoy poseen capacidades de “aproximación universal”. También son utilizadas para: -
Control.
-
- Procesamiento del lenguaje.
-
Aproximación de funciones.
Inteligencia Artificial y Redes Neuronales Artificiales Berti, Julia Robledo, Sebastián
-
Estadística.
-
Reconocimiento de rostros.
-
Predicción.
-
Sensores de olor.
-
Clasificación de imágenes de color.
Función de transferencia Tangente Hiperbólica Se usa en problemas de aproximación.
Referencias: -http://la-nanotecnologia.blogspot.com/2008/05/funcin-de-salida-otransferencia.html - http://www.mathworks.com/help/toolbox/nnet/ref/f7-23438.html#f716805 - http://members.tripod.com/jesus_alfonso_lopez/RnaIntro2.html - Introducción a las Redes Neurales . Prof. Minaya Vallasana