Archive for the ‘Cell Automate Programable’ Category

Origen

Los primeros conceptos sobre redes neuronales fueron proporcionados en el año de 1943 por Walter Pitts y Warren McCulloch. La investigación publicada sobre las redes neuronales sirvió de fundamentos para otras investigaciones realizadas en años próximos, simularon la red neuronal con circuitos eléctricos.

Red neuronal Artificial

Las redes neuronales artificiales son inspiradas en las redes neuronales biológicas que pueden ser implementadas en dispositivos electrónicos o computadoras, permitiendo el procesamiento de gran cantidad de información, capacidades de aprendizaje y entrenamiento con información proporcionada o almacenada, utilizadas en diversas áreas para el procesamiento paralelo, tolerancia a falos, etc.

Estructura de la Red Neuronal (Artificial – Biológica)

Las redes neuronales artificiales tienen la siguiente estructura Figura 1:

Las redes neuronales están compuertas por nodos conectadas por medio de conexiones dirigidas, las conexiones sirven para propagar las activaciones:

  • Las entradas son impulsos de otras neuronas.
  • Los pesos son intensidades que conectan dos neuronas
  • Función de activación es el valor que la neurona recibe para activarse

Tipos de redes neuronales

Perceptrón simple.- El Perceptrón simple desarrollada en 1957 por el psicólogo Frank Rosenblatt. Este tipo de red intentaba asemejarse a las redes biológicas aunque el perceptrón simple es relativamente sencillo y no posee muchas aplicaciones su desarrollo fue fundamental para que se desarrollen con la utilización del perceptrón aplicaciones en los sistemas informáticos. Rosenblatt demostró con la utilización del perceptrón se podían clasificar patrones correctamente. La regla de adaptación del perceptrón permite ajustar los pesos de la neurona permitiendo obtener distinción de los datos.

Estructura de la red

La estructura del perceptrón simple Figura (2), la neurona de salida del Perceptrón es la suma de las entradas, resta el umbral y pasa el resultado a una función de transferencia de tipo escalón.

El perceptron pertenece a las redes de aprendizaje supervisado requiere conocer los datos de entrada.

Perceptrón multicapa.- Un Perceptrón multicapa se caracteriza porque permite la entrada de datos hacia delante, esta formada por varias capas de neuronas entre la entrada y la salida, es mas complejo que el perceptrón simple porque posee muchas capas y toma de decisiones entre ellas.

Estructura de la red

La estructura del perceptrón multicapa Figura (3), posee muchas neuronas de entrda y salida:

Aplicaciones redes neuronales

  • Permite el procesamiento de imágenes
  • Reconocimiento de patrones
  • Mejores interfaces usuarios – computador
  • Predicción
  • Filtrado de señales
  • Análisis económicos, financiera de las empresas
  • Cambios en la tendencia del mercado

Inconvenientes

  • El aprendizaje de grandes cantidades de información es complejo.
  • El entrenamiento que esta sometido una red neuronal es elevado ocupando altos requisitos de memoria computacional.
  • Para un óptimo aprendizaje necesita grandes volúmenes de información proporcionada por un programador.

Por: Jorge Fierro

Bibliografía:

http://www.monografias.com/trabajos/redesneuro/redesneuro.shtml

http://www.redes-neuronales.netfirms.com/tutorial-redes-neuronales/tutorial-redes.htm

http://www.electronica.com.mx/neural/

http://www.answermath.com/redes_neuronales_o_neurales.htm

http://www.fortunecity.com/skyscraper/chaos/279/articulos/redesneuronales.htm

Una red Bayesiana  es un grafo acíclico dirigido en el que cada nodo representa una variable y cada arco una dependencia probabilística. Los nodos por lo general son variables aleatorias. Son utilizadas para modelar un fenómeno y de representar el conocimiento y métodos flexibles de razonamiento por medio de los nodos. El obtener una red Bayesiana  a partir de datos, es un proceso de aprendizaje que se divide en dos etapas: el aprendizaje estructural y el aprendizaje paramétrico.

 

Aprendizaje

 

Redes Bayesianas Dinámicas (RBD) son las que cambian con el tiempo.

 

Dada una representación en RBD en base a dos componentes, la estructura base (estático), y la red de transición.

 

Estructura base: Para aprender de la estructura base se consideran los datos de todas las variables en todos los tiempos, de forma que se pueda tener dependencias sin considerar las relaciones temporales. El problema entonces es de dos tipos:

 

  • Aprendizaje estructural: obtiene la estructura de la red Bayesiana (o topología de red) a partir de bases de datos, es decir, las relaciones de dependencia e independencia entre las variables involucradas.

 

  • Aprendizaje paramétrico: dada una estructura, obtiene las probabilidades asociadas. El requisito primordial para poder realizar la tarea de aprendizaje de redes Bayesianas a partir de datos es disponer de bases de datos muy amplia en las que esté detallado el valor de cada variable en cada uno de los casos.

 

 

Estructura de transición: dada la estructura base se aprende la red de transición esto se realiza usando dos enfoques:

 

  • Basado en medidas de ajuste de búsqueda: se parte de una estructura inicial con dos copias de la red base, y se busca agregar ligas entre variables en el tiempo T y T+1 que optimicen la medida de evaluación, para ello se consideran los datos de cada variable en el tiempo siguiente.

 

 

Figura 1: Aprendizaje de una red Bayesiana dinámica. Primero se obtiene la estructura base (izquierda) y después y después las relaciones entre etapas (derecha).

 

 

De medidas locales: Se aplican estas variables entre etapas para de esta forma determinar los arcos a incluirse en la red de transición. La Figura 1 ilustra una RBD sencillo.

 

Bibliografía

 

[1] Sierra Araujo, B. (2006): Aprendizaje Automatico. España: Pearson

[2] Ezequiel FELGAER, P. (2008, Abril). OPTIMIZACIÓN DE REDES BAYESIANAS BASADO

EN TÉCNICAS DE APRENDIZAJE POR INDUCCIÓN disponible en: www.itba.edu.ar/capis/rtis/rtis-6-2/optimizacion-de-redes-bayesianas.pdf

[3] Ezequiel FELGAER, P. (2008, Abril). OPTIMIZACIÓN DE REDES BAYESIANAS BASADO

EN TÉCNICAS DE APRENDIZAJE POR INDUCCIÓN disponible en: www.fi.uba.ar/materias/7500/felgaer-tesisingenieriainformatica.pdf

 

Por: Junior Sinche