Primeros pasos en Redes Neuronales Artificiales

 

Para hablar de redes neuronales artificiales primero se debe entender el funcionamiento del cerebro humano desde las partes que conforman una neurona hasta el procedimeinto que se cumple para la activacion de una de ellas ya que en base a este proceso se comenzaron a desarrollar las investigaciones sobre RNA, esta area ha tenido una significativa historia que comienza en 1943 hasta la actualidad.

En el presente post comenzamos con una introduccion del tema, pasando a un concepto concreto de redes neuronales artificiales, y una importante historia que ha sido resumida sobre las investigaciones de este campo.

INTRODUCCIÓN

El cerebro humano continuamente recibe señales de entrada de muchas fuentes y las procesa a manera de crear una apropiada respuesta de salida. Nuestros cerebros cuentan con millones de neuronas que se interconectan para elaborar “Redes Neuronales”. Estas redes ejecutan los millones de instrucciones necesarias para mantener una vida normal.

Las neuronas, al igual que las demás células del cuerpo, funcionan a través de impulsos eléctricos y reacciones químicas. Los impulsos eléctricos que utiliza una neurona para intercambiar información con las demás, viajan por el axón que hace contacto con las dendritas de la neurona vecina mediante las sinápsis. La intensidad de la corriente transmitida depende de la eficiencia de la transmisión sináptica. Una neurona en especial transmitirá un impulso eléctrico por su axón si suficientes señales de las neuronas vecinas transmiten a través de sus dendritas en un tiempo corto. La señal que se transmite a la neurona podrá ser además ya sea inhibitoria o excitatoria. La neurona dispara, esto es, manda el impulso por su axón, si la excitación excede su inhibición por un valor crítico, el umbral de la neurona.

Todo el sistema descrito anteriormente es el proceso que realiza el cerebro, el funcionamiento complejo es el que las redes neuronales tratan de imitar, mediante la integración y utilización de modelos de algoritmos matemáticos que simulan el funcionamiento de una neurona hasta la unión de de todas estas en una sola red neuronal artificial.

Los avances que esta rama ha generado son diversos y en diferentes áreas, desde la aplicación en la biología, empresas, manufacturación, medicina, hasta en el campo militar para la creación de armas inteligentes

CONCEPTO DE RED NEURONAL ARTIFICIAL

Las RNA están compuestas de un gran número elementos de procesamiento altamente interconectados (Neuronas) trabajando al mismo tiempo para la solución de problemas específicos. Las RNA, tal como las personas, aprenden de la experiencia.

En cualquier caso, se trata de una nueva forma de computación que es capaz de manejar las imprecisiones e incertidumbres que aparecen cuando se trata de resolver problemas relacionados con el mundo real (reconocimiento de formas, toma de decisiones, etc.), ofreciendo soluciones robustas y de fácil implementación.


Las RNA están compuestas de muchos elementos sencillos que operan en paralelo, el diseño de la red está determinado mayormente por las conexiones entre sus elementos. Al igual que las conexiones de las neuronas cerebrales.

Las RNA han sido entrenadas para la realización de funciones complejas en variados campos de aplicación. Hoy en día pueden ser entrenadas para la solución de problemas que son difíciles para sistemas computacionales comunes o para el ser humano.

La idea de las redes neuronales fue concebida originalmente como un intento de modelar la biofisiología del cerebro humano, esto es, entender y explicar como funciona y opera el cerebro. La meta era crear un modelo capaz en emular el proceso humano de razonamiento. La mayor parte de los trabajos iniciales en redes neuronales fue realizada por fisiólogos y no por ingenieros.

HISTORIA DE LAS REDES NEURONALES ARTIFICIALES

Desde el principio de la humanidad se soñó con el desarrollo de máquinas que puedan imitar la capacidad de aprendizaje del hombre. Actualmente es un desafío en el que pone todas sus miradas una parte de la comunidad científica.

El hombre se ha caracterizado siempre, a lo largo de su existencia, por una búsqueda constante de nuevas vías para mejorar sus condiciones de vida. Estos esfuerzos le han servido para reducir el trabajo en aquellas operaciones en las que la fuerza juega un papel primordial. Los progresos obtenidos han permitido dirigir estos esfuerzos a otros campos, como por ejemplo, a la construcción de máquinas calculadoras que ayuden a resolver de forma automática y rápida determinadas operaciones que resultan tediosas cuando se realizan a mano. En la actualidad existen diversas maneras de realizar procesos similares a los inteligentes humanos, a los que podemos denominar Inteligencia Artificial (AI).

Estas máquinas, denominadas máquinas inteligentes, permiten implementar fácilmente algoritmos para resolver multitudes de problemas que antes resultaban engorrosos de solucionar. Sin embargo, se observa una limitación importante, que ocurre cuando el problema que se quiere resolver no admite un tratamiento algorítmico, como es el caso, de la clasificación de objetos por rasgos comunes. Este ejemplo demuestra que la construcción de nuevas máquinas más versátiles que requieren un enfoque del problema desde otro punto de vista.

Los desarrollos actuales de los científicos se dirigen al estudio de las capacidades humanas, como una fuente de nuevas ideas para el diseño de dichas máquinas. Así, la inteligencia artificial es un intento por descubrir y describir aspectos de la inteligencia humana que pueden ser simulados mediante máquinas. Esta disciplina se ha desarrollado fuertemente en los últimos años, teniendo aplicación en algunos campos como visión artificial, demostración de teoremas, procesamiento de información expresada mediante lenguajes humanos… etc. Las redes neuronales son otra forma de emular otra de las características propias de los humanos.

Partiendo que las redes neuronales se fundamentan en el sistema nervioso humano, deberíamos remontarnos a los tiempos de Galeno en los que ya se tenía un conocimiento considerable de este. Sin embrago, los verdaderos avances en neurología se produjeron a partir de la segunda mitad del siglo XIX. Investigadores ilustres de esta época son Jackson, Ramón y Cajal y Golgi entre otros.

Walter Pitts y Warren McCulloch intentaron explicar en 1943 el funcionamiento del cerebro humano, por medio de una red de células conectadas entre sí podían ejecutar operaciones lógicas. Partiendo del menor suceso psíquico (estimado por ellos): el impulso todo/nada, generado por una célula nerviosa. El bucle “sentidos – cerebro – músculos”, mediante la retroalimentación producirían una reacción positiva si los músculos reducen la diferencia entre una condición percibida por los sentidos y un estado físico impuesto por el cerebro. También definieron la memoria como un conjunto de ondas que reverberan en un circuito cerrado de neuronas. Actualmente, sabemos que las decisiones conscientes acerca de la verdad de las proposiciones lógicas se producen a un nivel más alto, y quizás participen en ellas millones de células cerebrales.

En 1949, el fisiólogo Donald Hebb expuso en su libro “The Organitation of Behavior” la conocida regla de aprendizaje. Su propuesta tenia que ver con la conductividad de la sinapsis, es decir, con las conexiones entre neuronas. Hebb expuso que la repetida activación de una neurona por otra a través de una sinapsis determinada, aumenta su conductividad, y la hacía más propensa a ser activada sucesivamente, induciendo a la formación de un circuito de neuronas estrechamente conectadas entre sí.

Durante el verano de 1951, Minsky y Edmons montaron la primera máquina de redes neuronales, compuesta básicamente de 300 tubos de vacío y un piloto automático de un bombardero B-24 (en desuso por supuesto). Llamaron a su creación “Sharc”, se trataba nada menos que de una red de 40 neuronas artificiales que imitaban el cerebro de una rata.

Cada neurona hacia el papel de una posición del laberinto y cuando se activaba daba a entender que la “rata” sabia en que punto del laberinto estaba. Las neuronas que estaban conectadas alrededor de la activada, hacían la función de alternativas que seguir por el cerebro, la activación de la siguiente neurona, es decir, la elección entre “derecha” o “izquierda” en este caso estaría dada por la fuerza de sus conexiones con la neurona activada. Por ejemplo, la “rata” completaba bien el recorrido eligiendo a partir de la quinta neurona la opción “izquierda” (que correspondería a la sexta), es entonces cuando las conexiones entre la quinta y sexta se hacen más fuertes (dicha conexión era realizada por el piloto automático), haciendo desde este momento más propensa esta decisión en un futuro. Pero las técnicas Skinnerianas (que eran las que se habían puesto en funcionamiento en esta red neuronal) no podrían llevar muy lejos a este nuevo engendro, la razón pasa porque esto, en sí, no es inteligencia, pues la red neuronal nunca llegaría a trazar un plan.

Después de su Red Neuronal, Minsky escribió su tesis doctoral acerca de esta, en ella describía “cerebros mucho mayores”, exponiendo que si se realizaba este proyecto a gran escala, con miles o millones de neuronas más y con diferentes sensores y tipos de retroalimentación la máquina podría ser capaz de razonar, mas el sabia que la realización de esta Red Neuronal era imposible y decidió buscar otra forma de crear inteligencia.

En 1957, Frank Rosenblatt presentó al Perceptrón, una red neuronal con aprendizaje supervisado cuya regla de aprendizaje era una modificación de la propuesta por Hebb. La verdad es que el Perceptrón fue una buena idea, y es posible que los problemas que obtuvo fuesen provocados más que nada por el exagerado entusiasmo de su creador. Más tarde, en 1969, Marvin Minsky y Seymour Paper escribieron un libro llamado Perceptrons, en donde definían a estos como caminos sin salida. También es verdad que indagaron en ellos y sacaron conclusiones muy curiosas e interesantes, pero dado que ambos eran dos personalidades de peso en el mundo de la IA, en cuanto se publicó el libro, todas las investigaciones a cerca de Perceptrones se paralizaron y anularon.

En los años 60 se propusieron otros dos modelos, también supervisados, basados en el Perceptrón de Rosenblatt denominados Adaline y Madaline. En estos, la adaptación de los pesos se realiza teniendo en cuenta el error, calculado como la diferencia entre la salida deseada y la dada por la red, al igual que en el Perceptrón. Sin embargo, la regla de aprendizaje empleada es distinta.

La era moderna de las redes neuronales artificiales surge con la técnica de aprendizaje de propagación hacia atrás o Backpropagation. En 1977, James Anderson desarrolló un modelo lineal, llamado Asociador Lineal, que consistía en unos elementos integradores lineales (neuronas) que sumaban sus entradas. En 1982 John Hopfield presentó un trabajo sobre redes neuronales en la Academia Nacional de las Ciencias; en el cual describe con claridad y rigor matemático una red a la que ha dado su nombre, que viene a ser una variación del Asociador Lineal. En este mismo año la empresa Fujitsu comenzó el desarrollo de computadores pensantes para aplicaciones en robótica.

REFERENCIAS

TREC Soluciones, REDES NEURONALES ARTIFICIALES, Derechos Reservados, 1999-2005 [Disponible en :http://electronica.com.mx/neural/informacion/index.html]

Departament d’ESAII, “Introducción a Redes Neuronales” Escola Universitaria Politécnica de Vilanova i la Geltrú

Tags en technorati

Tags: , , , , , , , , , ,

 




    Responder

    Introduce tus datos o haz clic en un icono para iniciar sesión:

    Logo de WordPress.com

    Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

    Imagen de Twitter

    Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

    Foto de Facebook

    Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

    Google+ photo

    Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

    Conectando a %s



A %d blogueros les gusta esto: