Archive for the ‘Cell Automate Programable’ Category
Origen
Los primeros conceptos sobre redes neuronales fueron proporcionados en el año de 1943 por Walter Pitts y Warren McCulloch. La investigación publicada sobre las redes neuronales sirvió de fundamentos para otras investigaciones realizadas en años próximos, simularon la red neuronal con circuitos eléctricos.
Red neuronal Artificial
Las redes neuronales artificiales son inspiradas en las redes neuronales biológicas que pueden ser implementadas en dispositivos electrónicos o computadoras, permitiendo el procesamiento de gran cantidad de información, capacidades de aprendizaje y entrenamiento con información proporcionada o almacenada, utilizadas en diversas áreas para el procesamiento paralelo, tolerancia a falos, etc.
Estructura de la Red Neuronal (Artificial – Biológica)
Las redes neuronales artificiales tienen la siguiente estructura Figura 1:
Las redes neuronales están compuertas por nodos conectadas por medio de conexiones dirigidas, las conexiones sirven para propagar las activaciones:
- Las entradas son impulsos de otras neuronas.
- Los pesos son intensidades que conectan dos neuronas
- Función de activación es el valor que la neurona recibe para activarse
Tipos de redes neuronales
Perceptrón simple.- El Perceptrón simple desarrollada en 1957 por el psicólogo Frank Rosenblatt. Este tipo de red intentaba asemejarse a las redes biológicas aunque el perceptrón simple es relativamente sencillo y no posee muchas aplicaciones su desarrollo fue fundamental para que se desarrollen con la utilización del perceptrón aplicaciones en los sistemas informáticos. Rosenblatt demostró con la utilización del perceptrón se podían clasificar patrones correctamente. La regla de adaptación del perceptrón permite ajustar los pesos de la neurona permitiendo obtener distinción de los datos.
Estructura de la red
La estructura del perceptrón simple Figura (2), la neurona de salida del Perceptrón es la suma de las entradas, resta el umbral y pasa el resultado a una función de transferencia de tipo escalón.
El perceptron pertenece a las redes de aprendizaje supervisado requiere conocer los datos de entrada.
Perceptrón multicapa.- Un Perceptrón multicapa se caracteriza porque permite la entrada de datos hacia delante, esta formada por varias capas de neuronas entre la entrada y la salida, es mas complejo que el perceptrón simple porque posee muchas capas y toma de decisiones entre ellas.
Estructura de la red
La estructura del perceptrón multicapa Figura (3), posee muchas neuronas de entrda y salida:
Aplicaciones redes neuronales
- Permite el procesamiento de imágenes
- Reconocimiento de patrones
- Mejores interfaces usuarios – computador
- Predicción
- Filtrado de señales
- Análisis económicos, financiera de las empresas
- Cambios en la tendencia del mercado
Inconvenientes
- El aprendizaje de grandes cantidades de información es complejo.
- El entrenamiento que esta sometido una red neuronal es elevado ocupando altos requisitos de memoria computacional.
- Para un óptimo aprendizaje necesita grandes volúmenes de información proporcionada por un programador.
Por: Jorge Fierro
Bibliografía:
http://www.monografias.com/trabajos/redesneuro/redesneuro.shtml
http://www.redes-neuronales.netfirms.com/tutorial-redes-neuronales/tutorial-redes.htm
http://www.electronica.com.mx/neural/
http://www.answermath.com/redes_neuronales_o_neurales.htm
http://www.fortunecity.com/skyscraper/chaos/279/articulos/redesneuronales.htm
Una red Bayesiana es un grafo acíclico dirigido en el que cada nodo representa una variable y cada arco una dependencia probabilística. Los nodos por lo general son variables aleatorias. Son utilizadas para modelar un fenómeno y de representar el conocimiento y métodos flexibles de razonamiento por medio de los nodos. El obtener una red Bayesiana a partir de datos, es un proceso de aprendizaje que se divide en dos etapas: el aprendizaje estructural y el aprendizaje paramétrico.
Aprendizaje
Redes Bayesianas Dinámicas (RBD) son las que cambian con el tiempo.
Dada una representación en RBD en base a dos componentes, la estructura base (estático), y la red de transición.
Estructura base: Para aprender de la estructura base se consideran los datos de todas las variables en todos los tiempos, de forma que se pueda tener dependencias sin considerar las relaciones temporales. El problema entonces es de dos tipos:
- Aprendizaje estructural: obtiene la estructura de la red Bayesiana (o topología de red) a partir de bases de datos, es decir, las relaciones de dependencia e independencia entre las variables involucradas.
- Aprendizaje paramétrico: dada una estructura, obtiene las probabilidades asociadas. El requisito primordial para poder realizar la tarea de aprendizaje de redes Bayesianas a partir de datos es disponer de bases de datos muy amplia en las que esté detallado el valor de cada variable en cada uno de los casos.
Estructura de transición: dada la estructura base se aprende la red de transición esto se realiza usando dos enfoques:
- Basado en medidas de ajuste de búsqueda: se parte de una estructura inicial con dos copias de la red base, y se busca agregar ligas entre variables en el tiempo T y T+1 que optimicen la medida de evaluación, para ello se consideran los datos de cada variable en el tiempo siguiente.
Figura 1: Aprendizaje de una red Bayesiana dinámica. Primero se obtiene la estructura base (izquierda) y después y después las relaciones entre etapas (derecha).
De medidas locales: Se aplican estas variables entre etapas para de esta forma determinar los arcos a incluirse en la red de transición. La Figura 1 ilustra una RBD sencillo.
Bibliografía
[1] Sierra Araujo, B. (2006): Aprendizaje Automatico. España: Pearson
[2] Ezequiel FELGAER, P. (2008, Abril). OPTIMIZACIÓN DE REDES BAYESIANAS BASADO
EN TÉCNICAS DE APRENDIZAJE POR INDUCCIÓN disponible en: www.itba.edu.ar/capis/rtis/rtis-6-2/optimizacion-de-redes-bayesianas.pdf
[3] Ezequiel FELGAER, P. (2008, Abril). OPTIMIZACIÓN DE REDES BAYESIANAS BASADO
EN TÉCNICAS DE APRENDIZAJE POR INDUCCIÓN disponible en: www.fi.uba.ar/materias/7500/felgaer-tesisingenieriainformatica.pdf
Por: Junior Sinche
Spanish
En el modelamiento basado en autómatas celulares o teoría de enjambres con el equipo de colegas que trabajos en UTPL utilizamos la herramienta NetLogo. Estamos preparando recursos libres tipo open education resource sobre NetLogo y Autómatas Celulares, que daremos a conocer en este blog en las siguientes semanas.
Para quien no lo sabe, NetLogo es un lenguaje de programación simple, adaptado al modelamiento y simulación de fenómenos en el que se interactúan una gran cantidad de individuos (piense en: fenómenos en los enjambres de abejas, hormigas, manadas de ñues, siervos, etc; las matemáticas; el comportamiento de virus informáticos; las sociedad; los mercados; la organización y uso de la información en la web; el efecto en red de los grupos sociales colaborativos; entre otros. NetLogo es adecuado para modelar sistemas complejos que evolucionan en el tiempo, que involucran a centenares o millares de individuos (personas, bacterias, insectos, virus, actores de mercados, organizaciones, nodos de un grafo, etc.) que interactúan entre sí y con el medio ambiente y su impacto macro. El ambiente de programación/modelamiento de NetLogo es verdaderamente sencillo, tiene una curva de aprendizaje de alta productividad y, en nuestra propia experiencia e útil para crear y probar nuevos modelos. Entre las características generales, puedo comentar que permite abrir y experimentar simulaciones, comprobar rápidamente hipótesis sobre sistemas descentralizados. Los creadores de NetoLogo, son geniales, ofrecen un gran biblioteca de simulaciones para diversos campos: ciencias naturales y sociales, que pueden ser usadas y modificadas.
Para descargar NetLogo ir al sitio web y descargar el paquete en el sistema que se esté utilizando. Durante la descarga se pueden enlazar con la lista de email de interesados en NetLogo. El Paquete incluye abundante documentación y esta disponible para Mac y Windows.
English:
Comparto con ustedes esta invitación a participar de un NetLogo Workshop.