Archive for the ‘Publications’ Category

Las redes bayesianas o probabilísticas son una representación gráfica de dependencias para razonamiento probabilístico en sistemas expertos, en la cual los nodos y arcos representan:

  • Nodo: Variable proposicional.
  • Arcos: Dependencia probabilística.

El aprendizaje en las redes bayesianas se divide en dos grandes grupos:

APRENDIZAJE ESTRUCTURADO: Con el cual se obtiene la estructura de la red, es decir se obtienen las relaciones, dependencias e independencia entre las variables. Dentro de este grupo se encuentran clasificados: El aprendizaje de árboles y el aprendizaje poliárboles.

Aprendizaje de árboles: En este método de aprendizaje se trata de aproximar una distribución de probabilidad, por medio del producto de probabilidades de segundo orden. La resolución de este tipo de problemas de aprendizaje se plantea como un problema de optimización, es decir, obtener una estructura de árbol que se aproxime a una distribución basada en la diferencia de una distribución real y aproximada.

El algoritmo para determinar árbol Bayesiano óptimo a partir de datos es el siguiente:

1. Calcular la información mutua entre todos los pares de variables (n(n-1)/2).

2. Ordenar las informaciones mutuas de mayor a menor.

3. Seleccionar la rama de mayor valor como árbol inicial.

4. Agregar la siguiente rama mientras no forme un ciclo, si es así, desechar.

5. Repetir (4) hasta que se cubran todas las variables (n-1ramas)

Aprendizaje de Poliárboles: Se basa en el uso de pruebas de tres variables o comúnmente llamadas tripletas. Se basa en el algoritmo de árboles y se determina la dirección de los arcos mediante el uso de pruebas de dependencia.

Los pasos del algoritmo son:

1. Mantener el esqueleto usando el algoritmo de árboles.

2. Recorrer la red hasta encontrar una tripleta de nuevo, que sean convergentes (la variable a donde apuntan los arcos se conoce como nodo multipadre).

3. Del nodo multipadre se determinan las direcciones de otros arcos, esto mediante la prueba de dependencia en tripletas.

4. Repetir los pasos anteriores hasta que no hayan más direcciones que descubrir.

APRENDIZAJE PARAMÉTRICO:

Dada una estructura, obtener las probabilidades a priori y condicionales requeridas.

El aprendizaje paramétrico consiste en encontrar los parámetros asociados a una estructura dada de una red bayesiana. Dichos parámetros consisten en las probabilidades a priori de los nodos raíz y las probabilidades condicionales de las demás variables, dados sus padres. Si se conocen todas las variables, es fácil obtener las probabilidades requeridas. Las probabilidades previas corresponden a las marginales de los nodos raíz, y las condicionales se obtienen de las conjuntas de cada nodo con su(s) padre(s). Para que se actualicen las probabilidades con cada caso observado, éstas se pueden representar como razones enteras, y actualizarse con cada observación.

Elaborado: Javier Capa.


Origen

Los primeros conceptos sobre redes neuronales fueron proporcionados en el año de 1943 por Walter Pitts y Warren McCulloch. La investigación publicada sobre las redes neuronales sirvió de fundamentos para otras investigaciones realizadas en años próximos, simularon la red neuronal con circuitos eléctricos.

Red neuronal Artificial

Las redes neuronales artificiales son inspiradas en las redes neuronales biológicas que pueden ser implementadas en dispositivos electrónicos o computadoras, permitiendo el procesamiento de gran cantidad de información, capacidades de aprendizaje y entrenamiento con información proporcionada o almacenada, utilizadas en diversas áreas para el procesamiento paralelo, tolerancia a falos, etc.

Estructura de la Red Neuronal (Artificial – Biológica)

Las redes neuronales artificiales tienen la siguiente estructura Figura 1:

Las redes neuronales están compuertas por nodos conectadas por medio de conexiones dirigidas, las conexiones sirven para propagar las activaciones:

  • Las entradas son impulsos de otras neuronas.
  • Los pesos son intensidades que conectan dos neuronas
  • Función de activación es el valor que la neurona recibe para activarse

Tipos de redes neuronales

Perceptrón simple.- El Perceptrón simple desarrollada en 1957 por el psicólogo Frank Rosenblatt. Este tipo de red intentaba asemejarse a las redes biológicas aunque el perceptrón simple es relativamente sencillo y no posee muchas aplicaciones su desarrollo fue fundamental para que se desarrollen con la utilización del perceptrón aplicaciones en los sistemas informáticos. Rosenblatt demostró con la utilización del perceptrón se podían clasificar patrones correctamente. La regla de adaptación del perceptrón permite ajustar los pesos de la neurona permitiendo obtener distinción de los datos.

Estructura de la red

La estructura del perceptrón simple Figura (2), la neurona de salida del Perceptrón es la suma de las entradas, resta el umbral y pasa el resultado a una función de transferencia de tipo escalón.

El perceptron pertenece a las redes de aprendizaje supervisado requiere conocer los datos de entrada.

Perceptrón multicapa.- Un Perceptrón multicapa se caracteriza porque permite la entrada de datos hacia delante, esta formada por varias capas de neuronas entre la entrada y la salida, es mas complejo que el perceptrón simple porque posee muchas capas y toma de decisiones entre ellas.

Estructura de la red

La estructura del perceptrón multicapa Figura (3), posee muchas neuronas de entrda y salida:

Aplicaciones redes neuronales

  • Permite el procesamiento de imágenes
  • Reconocimiento de patrones
  • Mejores interfaces usuarios – computador
  • Predicción
  • Filtrado de señales
  • Análisis económicos, financiera de las empresas
  • Cambios en la tendencia del mercado

Inconvenientes

  • El aprendizaje de grandes cantidades de información es complejo.
  • El entrenamiento que esta sometido una red neuronal es elevado ocupando altos requisitos de memoria computacional.
  • Para un óptimo aprendizaje necesita grandes volúmenes de información proporcionada por un programador.

Por: Jorge Fierro

Bibliografía:

http://www.monografias.com/trabajos/redesneuro/redesneuro.shtml

http://www.redes-neuronales.netfirms.com/tutorial-redes-neuronales/tutorial-redes.htm

http://www.electronica.com.mx/neural/

http://www.answermath.com/redes_neuronales_o_neurales.htm

http://www.fortunecity.com/skyscraper/chaos/279/articulos/redesneuronales.htm

Las redes neuronales pretenden imitar el funcionamiento del conjunto de neuronas que funcionan y forman el cerebro humano. Alan Turing fue el primero en estudiar el cerebro como una forma de ver el mundo de la computación. Quienes han realizado estudios, investigaciones y ha podido modelar una red neuronal y, se acredita la creación de redes neuronales para otros fines que no sea solo el biológico, son Warren McCulloch y Walter Pitts. Estos dos investigadores propusieron un modelo matemático de neurona. La meta principal era obtener información referente al funcionamiento y comportamiento del cerebro. El modelo consistía en proporcionar a cada neurona de un conjunto de datos de entrada y salida, para activar la neurona era necesario calcular la suma de los productos de cada una de las entradas y, la salida en cambio, es una función, resultado de la activación. El recurso principal de este modelo son los pesos que se proporciona a cada entrada, es decir, los pesos de las conexiones entre neuronas. Si los pesos llegan a variar, el resultado de las salidas se modificará. Por lo tanto, el valor de los pesos de cada entrada es directamente proporcional al resultado de las salidas del modelo. A finales del siglo XIX se logró una mayor claridad sobre el trabajo del cerebro debido a las investigaciones de Ramón y Cajal en España y Sherrington en Inglaterra. El primero trabajó en la anatomía de las neuronas y el segundo en los puntos de conexión de las mismas o sinapsis.

Aproximadamente en el cerebro hay 50.000 neuronas por cada milímetro del cerebro, y billones de neuronas en todo el sistema neuronal. El tamaño y forma de las neuronas varía, lo que no varía son las partes de las cuales se compone, soma de la neurona, dendritas y axón. Se puede decir que la creación de redes neuronales y sus diferentes interpretaciones en cuanto a modelos, se puede aplicar en el campo informático y que ha servido en la mejora de procesos de sistemas computacionales complejos, como se comportan y la experiencia que adquieren estos en base a la información recibida y procesada. En el campo de la medina, ha servido para obtener información del comportamiento del cerebro y mejorar los diagnósticos de las diferentes anomalías que se generan en él. Seguir leyendo »

Joone – Java en las RNA (redes neuronales artificiales)

 

Haciendo eco a una noticia publicada en JavaHispano sobre una nueva versión de JGAP 3.2.2 (librería para algoritmos genéticos) y sobretodo revisando uno de los comentarios, llegué la sitio de Joone que es un framework, desarrollado en Java, que permite ejecutar aplicaciones de Inteligencia Artificial basadas en redes neuronales artificiales. Tiene muchas características como el trabajo con aprendizaje supervisado, no supervisado y otras más. Existe una buena cantidad de documentación sobre éste Framework.

Lo que me llamó la atención y animó éste post, es que posee un editor gráfico en donde se pueden crear y probar las redes neuronales y un entorno de entrenamiento distribuido para el entrenamiento en paralelo de muchas redes neuronales.

Unas imágenes:

Prototype Windows, una herramienta para Web 2.0

Revisando el Blog de JDeveloper, he encontrado éste post, en donde se habla de Prototype Windows que es un proyecto que brinda la oportunidad de crear ventanas y ventanas de dialogo dentro de nuestras páginas Web (al estilo Mushups de Google ig). Ahí les dejo una imagen para que se hagan una idea.

http://blog.xilinus.com/pwc
http://prototype-window.xilinus.com/

Spanish

Lo chévere de un lugar como Loja o Loxa es que hay mucho por hacer, por empezar, por sumar. Y esto es en todos los campos: industria, tecnología, investigación, producción, emprendimiento, turismo. En cuanto a generar conocimiento, investigación, desarrollo e innovación en el campo tecnológico, la gente de Loxa vinculada con UTPL, tomó la decisión de la formación Doctoral PHD de varios Docentes Investigadores con universidades Europeas; y con esta decisión empezó la urgencia de publicar los trabajos e investigaciones y ponerlos a disposición de pares y del mundo.

Aquí una plantilla para publicaciones, en PDF: Plantilla Papers PDF y en WORD: Plantilla Papers WORD.

English:

Scientific/technical Publications: structure and format

The funny thing, in a place like Loja (Loxa), is that all things need to be done, to be started. That occurs in all the branches: industry, technology, research, production, startups, tourism, etc. UTPL staff/teachers took the decision to persue doctoral studies in some europe universities. At this point, is necessary to work in relevance problems, to correctly write and then to send to: reviewers, conferences, collected and any other event.

Click to download papers publication template: PDF: Papers Template PDF WORD: Papers Template WORD.

Tags:

Edition Powered by Qumana