Elementos básicos de una Red Neuronal Artificial(Parte II)

Hola a todos, aquí estoy publicando la continuación de “Elementos básicos de una Red Neuronal Artificial”. En este trabajo abarca lo que es: Función de Propagación, Función de Activación y la Función de Salida, en el siguiente post se publicará La función de Error y la tasa de aprendizaje.

FUNCIÓN DE PROPAGACIÓN

Esta regla permite obtener, a partir de las entradas y los pesos el valor del potencial postsináptico hi de la neurona:

nueva-imagen.png (1)

La función más habitual es la suma ponderada de todas las entradas. Podemos agrupar las entradas y pesos en dos vectores (X1;X2; ::: Xn) y (W1j ;W2j ; :::Wnj) podemos calcular esta suma realizando el producto escalar sobre estos dos vectores.

nueva-imagen-1.png (2)

La función de propagación puede ser más compleja que simplemente una suma de productos. Las entradas y los pesos pueden ser combinados de diferentes maneras antes de pasarse el valor a la función de activación. Por ejemplo podemos usar como función de propagación, el mínimo, máximo, la mayoría, producto, o diversos algoritmos de normalización. El algoritmo específico para la propagación de las entradas neuronales está determinado por la elección de la arquitectura.

FUNCIÓN DE ACTIVACIÓN O TRANSFERENCIA

El resultado de la función de propagación, en la mayoría de los casos es una suma ponderada, es transformada en la salida real de la neurona mediante un proceso algorítmico conocido como función de activación.

nueva-imagen-2.png (3)

En la función de activación el valor de la salida de combinación puede ser comparada con algún valor umbral para determinar la salida de la neurona.

Si la suma es mayor que el valor umbral, neurona generará una señal. Si la suma es menor que el valor umbral, ninguna señal será generada.

Normalmente el valor umbral, o valor de la función de transferencia, es normalmente no lineal. El uso de funciones lineales es limitado ya que el valor de la salida es proporcional al de la entrada, de hecho este fue uno de los problemas en los primeros modelos de redes neuronales como fue identificado por Minsky y Papert en Perceptrons. La función de activación pudiera ser algo tan simple como dependiente sobre si el resultado de la función de combinación es positivo o negativo.

Ejemplos de Funciones de Activación

Ejemplos de Funciones de Activación

Fuente: Introducción a las redes neuronales

De las funciones presentadas en la figura 4 destacan las funciones sigmoidales. Desde el punto de vista matemático, la utilidad de estas funciones es que ella y sus derivadas son continuas. Estas funciones funcionan bastante bien y son normalmente las elegidas.Antes de aplicar la función de activación, se puede añadir cierto ruido a las entradas. La fuente y la cantidad de este ruido están determinadas por el modo de entrenamiento de una red particular. Este ruido normalmente es conocido como temperatura de la neurona. De hecho, al añadir diferentes niveles de ruido al resultado de la combinación lleva a crearse un modelo más parecido al cerebro. El uso del ruido por temperatura está aún en fase de investigación y no es aplicado habitualmente en las aplicaciones.

ESCALAMIENTO Y LIMITACIÓN El valor de salida de la función de activación puede ser procesado de manera adicional mediante un escalamiento y limitación. El escalamiento simplemente multiplica el valor de la función de transferencia por un factor de escala y después se le suma un desplazamiento.Normalmente este tipo de escalamiento y limitación es usado principalmente en topologías usadas para verificar modelos neuronales biológicos.

Función de salida (Competitividad) Cada elemento de procesamiento tiene permitido una única salida Yi(t)que puede estar asociada con un número elevado de otras                                     neuronas. Normalmente, la salida es directamente equivalente al valor resultante de la función de activación.

nueva-imagen-4.png (4)

Algunas topologías de redes neuronales, sin embargo, modifican el valor de la función de transferencia para incorporar un factor de competitividad entre neuronas que sean vecinas. Las neuronas tienen permitidas competir entre ellas, inhibiendo a otras neuronas a menos que tengan una gran fortaleza.




    Responder

    Introduce tus datos o haz clic en un icono para iniciar sesión:

    Logo de WordPress.com

    Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

    Imagen de Twitter

    Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

    Foto de Facebook

    Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

    Google+ photo

    Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

    Conectando a %s



A %d blogueros les gusta esto: