Archive for the ‘ECCUTPL’ Category

Los modelos ocultos de Markov (HMM) desempeñan un función importante el desarrollo de herramientas para la modelización altamente flexible, inicialmente utilizada en el campo del reconocimiento automático del habla, que ha encontrado en los últimos años numerosas aplicaciones en áreas científico-técnicas muy diversas, aunque su utilización en otras áreas es escasa. Dentro de la descripción de los elementos esenciales de los HMM, se presentan los algoritmos básicos que facilitan su estimación y se indica una herramienta reciente, para las posibilidades que puedan ofrecer un análisis de patrones espaciales complejos, pues permiten incorporar en el proceso de modelización información a priori sobre el sistema analizado.

En las áreas en las que los HMM están más extendidos, se utilizan, en general, con un enfoque de aprendizaje automático, en problemas en los que se dispone de una abundante base de datos (denominados de entrenamiento) con los que es posible seleccionar y estimar el HMM más apropiado (a veces, con un gran número de estados ocultos), obteniéndose modelos con una alta capacidad de predicción, pues el problema típico es clasificar o identificar nuevos datos.[1]

Los algoritmos necesarios para los HMM discretos son fácilmente implementables, la complejidad aumenta en el caso continuo y en las extensiones a los modelos básicos. Afortunadamente, existen distintas herramientas para el trabajo con HMM disponibles, muchas de ellas de uso libre, para diferentes entornos de computación [2]

El programa comercial MATLAB (http://www.mathworks.com/products/matlab/), en su paquete (toolbox) de estadística, ofrece las funciones básicas para construir, simular y analizar HMM discretos.

Mediante la creación de redes neuronales con las herramientas: JNNS (Java Neural Network Simulator), JHMMSim (Java Hidden Harkov Model Simulator).

Esta herramienta desarrollada por Relex, es una herramienta flexible, de gran alcance para modelar sistemas complejos, Relex Markov ® proporciona una muy buena capacidad de análisis de las cadenas ocultas de Markov en una forma fácil de usar, completo paquete. Relex Markov provides fast, accurate reliability analyses for complex systems with common cause failures, degradation, induced or dependent failures, multi-operational state components, and other sequence-dependent events. Relex Markov proporciona una rápida, análisis de fiabilidad de sistemas complejos con los fallos por causa común, la degradación, inducidos o fracasos dependen de múltiples componentes operativos, y otros que dependen de secuencia de eventos.

Características y Beneficios de Tecnic. Markov

  • Estado de transición diagramas
  • Eventos dependientes
  • Degradamientos, y los Estados fallidos
  • Flujo de resultados en el estado estable
  • Los fallos por causa común
  • Inducida por los fracasos
  • Sistema de degradación
  • Multi-operational state components Multi-Estado de funcionamiento componentes
  • Cost analysis Análisis de costos.

Figura 1.- El desarrollador de Relaciones Markov calcula las cifras de la dinámica de árboles que falta construir utilizando Relex Fault Tree. [4]

Figura 2.- Sistema de estados y transiciones son fácilmente diagramados, los parámetros pueden ser asignados con simplicidad y haciendo clic en las operacion

Juan Pablo Pizarro.

Anuncios

Los Árboles de clasificación, o también llamados modelos basados en árboles, se fundamentan en el principio de “divide y vencerás”, construyendo un árbol que en cada nodo establece unas condiciones sobre un atributo, dividiendo así el conjunto de casos en subconjuntos que cumplen cada condición. Los subconjuntos se vuelven a dividir añadiendo nuevos niveles al árbol hasta detenerse mediante algún criterio.

· Reglas de Clasificación: las reglas con cláusulas de lógica proposicional donde las premisas son condiciones sobre los atributos de los ejemplos y el consecuente es una etiqueta con la clase que se le asignará en caso de que se aplique la regla.

Los árboles de clasificación presentan dos ventajas fundamentales respecto a las redes neuronales.

La primera, es que el conocimiento que se extraiga el árbol se puede representar de forma inteligible mediante reglas de decisión.

La segunda es que obedece a un criterio estadístico, puesto que para llegar a la solución establece distribuciones de probabilidad sobre las categorías de las clases en cada uno de sus nodos.

También, existen opciones de mejoras de estos modelos, en donde elegir es mucho más reducido que el de redes neuronales, este proceso implica tener dos grandes grupos de algoritmos de “poda” del árbol, la pre-poda y la post-poda

En la pre-poda se van aplicando criterios al desarrollo del árbol, y si aplicamos algún tipo de condición que varié esos criterios, estaríamos frenando el desarrollo del árbol, por lo que evitaríamos un sobre entrenamiento que se podría dar, al presentársele casos nuevos que debilitarían sus capacidad de generalización.

La post-poda, es el otro criterio, y el más usado ya que permite un desarrollo total del árbol hasta conseguir nodos homogéneos, para luego eliminarse utilizando algún criterio.

Estos algoritmos se enfocan en la capacidad de disminuir el (overfitting) o sobreentrenamiento de un árbol, sin perder indirectamente la capacidad de generalización, que puedes enfrentarse a nuevos casos de una manera eficiente.

Una ventaja que presenta sobre otros métodos es que la forma de representar el conocimiento es más sencilla. En lugar de usar el conjunto de variables para tomar una decisión, se trata de usar diferentes subconjuntos de las variables, para diferentes niveles del árbol (reglas de decisión).

Ventajas:

Los árboles de clasificación, poseen:

· La regla de asignación son simples y legibles, por tanto la interpretación de resultados es directa e intuitiva.

· Es robusta frente a datos típicos u observaciones mal etiquetadas.

· Es válida sea cual fuera la naturaleza de las variables explicativas: continuas, binarias nominales.

· Es una técnica no paramétrica que tiene en cuenta las interacciones que pueden existir entre los datos.

· Es rápido computacionalmente.

Desventajas:

Se puede mencionar como:

· Las reglas de asignación son inestables.

· Dificultad para elegir el árbol óptimo.

· Ausencia de una función global de las variables y como consecuencia pérdida de la representación geométrica.

· Los árboles de clasificación requieren un gran número de datos para asegurarse que la cantidad de las observaciones de los nodos hoja es significativa.

Elaborado por: Juan Pablo Pizarro.

Origen

Los primeros conceptos sobre redes neuronales fueron proporcionados en el año de 1943 por Walter Pitts y Warren McCulloch. La investigación publicada sobre las redes neuronales sirvió de fundamentos para otras investigaciones realizadas en años próximos, simularon la red neuronal con circuitos eléctricos.

Red neuronal Artificial

Las redes neuronales artificiales son inspiradas en las redes neuronales biológicas que pueden ser implementadas en dispositivos electrónicos o computadoras, permitiendo el procesamiento de gran cantidad de información, capacidades de aprendizaje y entrenamiento con información proporcionada o almacenada, utilizadas en diversas áreas para el procesamiento paralelo, tolerancia a falos, etc.

Estructura de la Red Neuronal (Artificial – Biológica)

Las redes neuronales artificiales tienen la siguiente estructura Figura 1:

Las redes neuronales están compuertas por nodos conectadas por medio de conexiones dirigidas, las conexiones sirven para propagar las activaciones:

  • Las entradas son impulsos de otras neuronas.
  • Los pesos son intensidades que conectan dos neuronas
  • Función de activación es el valor que la neurona recibe para activarse

Tipos de redes neuronales

Perceptrón simple.- El Perceptrón simple desarrollada en 1957 por el psicólogo Frank Rosenblatt. Este tipo de red intentaba asemejarse a las redes biológicas aunque el perceptrón simple es relativamente sencillo y no posee muchas aplicaciones su desarrollo fue fundamental para que se desarrollen con la utilización del perceptrón aplicaciones en los sistemas informáticos. Rosenblatt demostró con la utilización del perceptrón se podían clasificar patrones correctamente. La regla de adaptación del perceptrón permite ajustar los pesos de la neurona permitiendo obtener distinción de los datos.

Estructura de la red

La estructura del perceptrón simple Figura (2), la neurona de salida del Perceptrón es la suma de las entradas, resta el umbral y pasa el resultado a una función de transferencia de tipo escalón.

El perceptron pertenece a las redes de aprendizaje supervisado requiere conocer los datos de entrada.

Perceptrón multicapa.- Un Perceptrón multicapa se caracteriza porque permite la entrada de datos hacia delante, esta formada por varias capas de neuronas entre la entrada y la salida, es mas complejo que el perceptrón simple porque posee muchas capas y toma de decisiones entre ellas.

Estructura de la red

La estructura del perceptrón multicapa Figura (3), posee muchas neuronas de entrda y salida:

Aplicaciones redes neuronales

  • Permite el procesamiento de imágenes
  • Reconocimiento de patrones
  • Mejores interfaces usuarios – computador
  • Predicción
  • Filtrado de señales
  • Análisis económicos, financiera de las empresas
  • Cambios en la tendencia del mercado

Inconvenientes

  • El aprendizaje de grandes cantidades de información es complejo.
  • El entrenamiento que esta sometido una red neuronal es elevado ocupando altos requisitos de memoria computacional.
  • Para un óptimo aprendizaje necesita grandes volúmenes de información proporcionada por un programador.

Por: Jorge Fierro

Bibliografía:

http://www.monografias.com/trabajos/redesneuro/redesneuro.shtml

http://www.redes-neuronales.netfirms.com/tutorial-redes-neuronales/tutorial-redes.htm

http://www.electronica.com.mx/neural/

http://www.answermath.com/redes_neuronales_o_neurales.htm

http://www.fortunecity.com/skyscraper/chaos/279/articulos/redesneuronales.htm

El análisis de clusters es una colección de métodos estadísticos que permiten agrupar casos sobre los cuales se miden diferentes variables o características.

Los clusters deben ser hallados in información previa y serán sugeridos únicamente por la propia esencia de los datos.

Existen dos métodos de bloques de clustering: los jerárquicos y los no jerárquicos o particionales.

Para ver artículo completo ir a: http://techi322.wordpress.com/2008/08/08/clasificacion-analisis-de-clusters/

REDES NEURONALES (RNA)

Introducción

Las Redes Neuronales surgieron del movimiento conexionista, que nació junto con la Inteligencia Artificial (IA) simbólica o tradicional. Esto fue hacia los años 50, con algunos de los primeros ordenadores de la época y las posibilidades que ofrecían. La IA simbólica se basa en que todo conocimiento se puede representar mediante combinaciones de símbolos, derivadas de otras combinaciones que representan verdades incuestionables o axiomas. Así pues, la IA tradicional asume que el conocimiento es independiente de la estructura que maneje los símbolos, siempre y cuando la ‘máquina’ realice algunas operaciones básicas entre ellos [2].

Definición

Una red neuronal artificial (Artificial Neural Network, ANN), es un procesador masivamente paralelo distribuido que es propenso por naturaleza a almacenar conocimiento experimental y hacerlo disponible para su uso. Este mecanismo se parece al cerebro en dos aspectos:

 

1.      El conocimiento es adquirido por la red a través de un proceso que se denomina aprendizaje.

2.      El conocimiento se almacena mediante la modificación de la fuerza o peso sináptico de las distintas uniones entre neuronas [1].


 ELEMENTOS BÁSICOS QUE COMPONEN UNA RED NEURONAL.

A continuación se puede ver, en la Figura, un esquema de una red neuronal:

La misma está constituida por neuronas interconectadas y arregladas en tres capas (esto último puede variar). Los datos ingresan por medio de la “capa de entrada”, pasan a través de la “capa oculta” y salen por la “capa de salida”. Cabe mencionar que la capa oculta puede estar constituida por varias capas.

Los elementos que permiten clasificar los diferentes tipos de redes son los siguientes aspectos:

  • Número y disposición de las neuronas.
  • No-linealidad presente en cada neurona.
  • Red de Interconexión.
  • Algoritmo de entrenamiento.
  • Comportamiento estático y dinámico [3].

 

VENTAJAS QUE OFRECEN LAS REDES NEURONALES

 

Debido a su constitución y a sus fundamentos, las redes neuronales artificiales presentan un gran número de características semejantes a las del cerebro. Por ejemplo, son capaces de aprender de la experiencia, de generalizar de casos anteriores a nuevos casos, de abstraer características esenciales a partir de entradas que representan información irrelevante, etc. Esto hace que ofrezcan numerosas ventajas y que este tipo de tecnología se esté aplicando en múltiples áreas. Entre las ventajas se incluyen:

 

Aprendizaje Adaptativo. Capacidad de aprender a realizar tareas basadas en un entrenamiento o en una experiencia inicial.

 

Auto-organización. Una red neuronal puede crear su propia organización o representación de la información que recibe mediante una etapa de aprendizaje.

 

Tolerancia a fallos. La destrucción parcial de una red conduce a una degradación de su estructura; sin embargo, algunas capacidades de la red se pueden retener, incluso sufriendo un gran daño.

 

Operación en tiempo real. Los cómputos neuronales pueden ser realizados en paralelo; para esto se diseñan y fabrican máquinas con hardware especial para obtener esta capacidad.

 

Fácil inserción dentro de la tecnología existente. Se pueden obtener chips especializados para redes neuronales que mejoran su capacidad en ciertas tareas. Ello facilitará la integración modular en los sistemas existentes [4].

 

Por: Lourdes Morocho

REFERENCIAS:

[1]  Blanco, Vega Ricardo, Extracción de Reglas de Redes Neuronales Artificiales, Universidad Politécnica de Valencia, Departamento de Sistemas Informáticos y Computación, tomado de PresentaER.pps, disponible en: http://www.dsic.upv.es/~rblanco

[2]  Introducción a las Redes Neuronales, Xavier Padern disponible en:

http://www.redcientifica.com/doc/doc199903310003.html

 

[3] Aprendizaje Automático: conceptos básicos y avanzados (2006), Basilio Sierra Araujo.

[4] Universidad Tecnológica Nacional – Facultad Regional Rosario Departamento de Ingeniería Química Grupo de Investigación Aplicada a la Ingeniería Química (GIAIQ). Redes Neuronales: Conceptos Básicos y Aplicaciones.pdf

 

Modelos Ocultos de Markov

Un modelo oculto de Markov o HMM (por sus siglas del inglés, Hidden Markov Model), es un proceso por el cual se observa el comportamiento del sistema de manera indirecta pues los estados del mismo permanecen ocultos para el observador.

 

El objetivo principal es encontrar los valores desconocidos a partir de parámetros observables, estos modelos describen un proceso de probabilidad el cual produce una secuencia de parámetros observables, se denominan ocultos por que existe probabilidades ocultas que afectan al resto de estados observados.

 

Un modelo oculto de Markov es un conjunto finito de estados probabilísticos, en el que el estado esta conectado a otro por un arco de transición, en donde cada arco tiene diversas probabilidades que pueden cambiar en algún instante del tiempo, entonces se puede decir que el sistema se encuentra en uno de los posibles estados y habrá un cambio de un estado a otro en intervalos iguales de tiempo.

 

Figura 1. Ejemplo de un modelo de Markov [1]

 

Probabilidad de que el día permanezca, lluvioso, nubloso soleado

 

Cada estado (S + 1) depende del estado anterior S y no del progreso del sistema.

 

Tipos de HMM

Los modelos ocultos de Markov se clasifican según la función de la matriz de distribuciones de probabilidad de emisión, estos son:

 

 

HMM discretos

En este modelo las observaciones son vectores de símbolos de un alfabeto finito con M + 1 elementos diferentes, en este caso se define el número de símbolo observables M, el conjunto de estados, y las probabilidades que definen el modelo oculto de Markov.

 

HMM continuos

Las probabilidades que dominan la emisión de los parámetros observables están definidas sobre espacios de observación continuos, se restringe la forma de distribuciones para obtener un número manejable de parámetro a estimar.

 

 

HMM semicontinuos

Para aplicar este modelo se debe realizar un entrenamiento a varios modelos con bases de datos limitadas, estos modelos al igual que los continuos se realizan a partir de combinaciones de distribuciones probabilísticas. La diferencia de estos modelos es que las funciones base son comunes en todos los modelos.

 Autor: Auliria Torres

Referencias

[1] Luís Miguel Bergasa Pascual, Introducción a los modelos ocultos de Markov, Departamento de electrónica, Universidad de Alcalá, disponible en: http://www.depeca.uah.es/docencia/doctorado/cursos04_05/82854/docus/HMM.pdf

 

[2] Redes Neuronales y Modelos Ocultos de Markov, disponible en: http://catarina.udlap.mx/u_dl_a/tales/documentos/lis/clemente_f_e/capitulo2.pdf

 

[3] Basilio Sierra Araujo, Aprendizaje Automático: Conceptos básicos y avanzados.

Redes Bayesianas

Las Redes Bayesianas son un grafo acíclico dirigido que consta de nodos que representan las variables aleatorias y los arcos son las dependencias probabilísticas de cada variable, las redes bayesianas son un conjunto de variables aleatorias representadas en un grafo dirigido, el arco entre dos variables x e y, significa una influencia directa de x sobre y.

 

Los nodos son cualquier variable como por ejemplo variables que se pueden medir, variables latentes o hipótesis. Las redes bayesianas son utilizadas para sistemas expertos y se pueden utilizar diversos tipos de algoritmos para recopilar conocimiento par a estos sistemas.

 

Figura 1. Ejemplo de una red bayesiana [1]

 

 

Los nodos representan variables aleatorias y los arcos las relaciones de dependencia. En esta red observamos que [1]:

  • Caries es una causa directa de Dolor y Huecos
  • Dolor y Huecos son condicionalmente independientes dada Caries
  • Tiempo es independiente de las restantes variables

 

Existen diferentes tipos de redes bayesianas [2]:

 

  • Naive Bayes = bayes “ingenuo” o Idiot’s Bayes

Forma de “V” => 2 ^ n estados en el nodo inferior

 

  • DBNs = Redes Bayesianas Dinámicas

Cambian con el tiempo (t, t+1, t+2…)

Lo pasado en t, tiene relación con lo que suceda en t+1

 

  • Redes Gaussianas = distribución gaussiana

Para nodos con variables continuas

 

  • Cadenas de Markov = subconjunto de las RB

 

Aplicaciones

Las redes bayesianas tienen múltiples aplicaciones, se puede aplicar este modelo en empresas que necesiten diagnosticar problemas o fallos o también para minería de datos.

A continuación tenemos algunos campos en donde podemos aplicar las redes bayesianas [3]:

 

 

  • Prevención del fraude
  • Prevención del abandono de clientes
  • Blanqueo de dinero
  • Marketing personalizado
  • Mantenimiento preventivo
  • Clasificación de datos estelares

Aplicaciones en empresas [1]:

 

  • Microsoft: Answer Wizard (Office), diagnostico de problemas de impresora.
  • Intel: Diagnostico de fallos de procesadores
  • HP: Diagnostico de problemas de impresora
  • Nasa: Ayuda a la decisión de misiones espaciales

 Por: Auliria Torres

Referencias

 

[1] José L. Ruiz Reina, Introducción a las Redes Bayesianas, Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla, disponible en:

http://www.cs.us.es/cursos/ia2-2005/temas/tema-08.pdf

[2] Álvaro Marín Illera, Sistemas Expertos, Redes Bayesianas y sus aplicaciones, Semana ESIDE, Abril 2005, Universidad de Deusto, disponible en:

http://www.e-ghost.deusto.es/docs/2005/conferencias/Bayes05.pdf

 

[3] Red bayesiana, disponible en: http://es.wikipedia.org/wiki/Red_bayesiana

 

[4] Jorge Luís Guevara Díaz, Redes Bayesianas, disponible en: http://jorge.sistemasyservidores.com/si_2008i/clases/claseiarazonamientoprobabilistico.pdf

 

[5] Carlos López de Castilla Vásquez, Clasificadores Por Redes Bayesianas, Universidad de Puerto Rico, disponible en:

http://grad.uprm.edu/tesis/lopezdecastilla.pdf

 

 

Tipos de Conocimiento

El conocimiento es un conjunto de datos, los cuales en conjunto constituyen información sobre un hecho. El conocimiento se forma de la información obtenida a lo largo del tiempo sobre como funcionan las cosas.

Existen dos tipo de conocimiento: el explícito y el tácito.

El conocimiento explícito: Este conocimiento se lo puede expresar en palabras y números, puede ser fácilmente transmitido y compartido en forma de representaciones en medios codificados, fórmulas científicas o principios globales o universales.

El conocimiento tácito: está muy personalizado y su formalización es compleja. Por lo que es difícil de transmitir ya que no ha adoptado una forma explícita. [1]

En el “modelo de ciclos de producción del conocimiento”, se expresan los siguientes procesos de conversión del conocimiento:

1.    De tácito a tácito (Proceso de socialización): Los individuos adquieren nuevos conocimientos directamente de otros.
2.    De tácito a explícito (Proceso de externalización): El conocimiento se articula de una manera tangible a través del dialogo.
3.    De explícito a explícito (Proceso de combinación): Se combinan diferentes formas de conocimiento explícito mediante documentos o bases de datos.
4.    De explícito a tácito (Proceso de internalización): Los individuos internalizan el conocimiento de los documentos en su propia experiencia.[1]

La gestión del conocimiento tiene principalmente los siguientes objetivos:

Identificar, recoger y organizar el conocimiento existente.
Facilitar la creación del nuevo conocimiento.
Iniciar la innovación a través de la reutilización y apoyo de la habilidad de la gente a través de organizaciones para producir un realzado funcionamiento de negocio. [2]

La gestión del conocimiento es la base para el desarrollo de la sociedad, nos permite incrementar las investigaciones en todos lo campos existentes y ampliar las fronteras del saber.

Referencias
[1] Luís Alvarado Acuña, La Gestión del Conocimiento y la utilización de las Tecnologías de la Información y de las comunicaciones en la creación de valor en los proyectos de Innovación, disponible en:
http://www.monografias.com/trabajos12/lagc/lagc.shtml#INNOVAC

[2] Juan Carrión Maroto,  INTRODUCCIÓN CONCEPTUAL A LA GESTIÓN DEL CONOCIMIENTO disponible en: http://www.gestiondelconocimiento.com/introduccion.htm

Los Modelos Ocultos de Markov (HMM) representan un proceso en el cual se refleja un alto grado de probabilidades, probabilidades que generan una secuencia de acciones o eventos que se pueden observar, lo que no ocurre con el proceso de probabilidad utilizado, este no es observable, pero sí afecta directamente a la secuencia de acciones que lo son. Los Modelos Ocultos de Markov pueden ser definidos como un modelo de un proceso, el cual genera una secuencia de acciones o eventos de un dominio específico.

La principal meta de los HMM es identificar los valores desconocidos u ocultos de la secuencia de acciones generada a partir de valores o parámetros observables. “Un HMM se puede considerar como la red bayesiana dinámica más simple”. Los valores que se obtengan, son analizados y sus resultados pueden ser utilizados para desarrollarlas distintas aplicaciones como: reconocimiento de patrones, Traducción automática, Bioinformática, etc.

Según el desarrollo de dichas aplicaciones o el análisis que se requiera se utiliza una arquitectura de Modelos Ocultos de Markov. Esta arquitectura viene dada por el número de estados (variable aleatoria) que lo componen y las transiciones o conexiones entre los estados. De igual manera ocurre en las redes neuronales, su arquitectura depende mucho del número de neuronas (estados) y las transiciones entre estas (conexiones sinápticas). Existen dos modelos principales que representan la arquitectura de un HMM: Modelos HMM de izquierda a derecha y Modelos HMM ergódicos.

En los modelos de izquierda a derecha, los elementos o las probabilidades que genera las acciones o eventos deben cumplir con una condición Aij = 0, donde j<i. Esto significa que, si el modelo se encuentra en un determinado tiempo (t), en el siguiente instante (t+1), el modelo permanecerá con el mismo valor de probabilidad Aii, de no ocurrir esto, el modelo pasará a un estado j-ésino con una probabilidad Aij. Este modelo es idóneo para aquellas aplicaciones en los cuales se sigue un proceso secuencial, por ejemplo: la identificación de blancos aéreos, en los cuales se utiliza una secuencia de entrenamiento para cada objetivo basados en un conjunto de observaciones almacenadas en un array.

Lo contrario ocurre con los modelos ergódicos, estos pueden evolucionar desde cualquier estado a otro en un número finito de transiciones, todas las transiciones son posibles. Este modelo es aplicado en proceso en los cuales se produce una toma de decisiones, otro ejemplo claro, es el reconocimiento de gestos, en el cual se utiliza una base de entrenamiento construida en base a la información obtenida de los gestos, esta base se ajusta a los valores, se la interrelaciona y se obtiene los resultados.

Los modelos deben ser seleccionados según la aplicación, deben ser ejecutados adecuadamente y cumplir con las condiciones que en cada modelo se estimen pertinentes.

Autores:

Daniel Valdivieso

Diego Guamán

Al leer el documento AI: It’s OK Again, (de este documento revisar las dos páginas) he podido darme cuenta de algunas variantes e interpretaciones dadas por gurúes, los mismos que han emitido sus criterios a lo largo de los últimos 50 años, desde la aparición de la misma.

Rememorando un poco de historia recuperada del libro Inteligencia Artificial [un enfoque moderno], tenemos que el término Inteligencia Artificial fue acuñado en el año de 1956, luego de la Segunda Guerra mundial, el objetivo de la IA va más allá de la comprensión de ideas y conceptos, su orientación está más bien orientada a construir entidades inteligentes, como primer punto de partida para realizar esto se utilizó la máquina de Turing, misma que fue propuesta por Alan Turing (1950), máquina que fue diseñada para proporcionar una definición operacional y satisfactoria de la inteligencia.

Entre los aspectos relevantes de esta prueba se describía que un computador debe contar con algunas características para poder decir que es inteligente:

Procesamiento de lenguaje natural: que le permita comunicarse satisfactoriamente en inglés

Representación del conocimiento: para almacenar lo que se conoce o se siente.

Razonamiento automático: para utilizar la información almacenada para responder a preguntas y extraer nuevas conclusiones

Aprendizaje automático: para adaptarse a nuevas circunstancias y para detectar y explotar patrones.

Estos fueron los criterios iniciales de la prueba de Turing, más analizando que se requería de una interacción con el medio ambiente entonces se desarrollo la prueba global de Turing, la misma en la cual se incluían los siguientes aspectos:

Visión computacional: para percibir objetos

Robótica: para manipular y mover objetos.

Luego de dar esta parte introductoria que me pareció de gran interés, me dispongo a mostrar los criterios de muchos autores y desarrollar un criterio personalizado de cada concepto, desde mi punto de vista personal.

En “Dartmouth Summer Reseach Conference on Artificial Intelligence” llevada a cabo en el año de 1956, se propuso una estimación visionaria y un poco ambiciosa a la vez. la misma decía lo siguiente:

“An attempt will be made to find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves. We think that a significant advance can be made in one or more of these problems if a carefully selected group of scientists work on it together for a summer.”

Análisis: para ellos la inteligencia artificial representaba un intento por hacer o encontrar el cómo las máquinas puede usar el lenguaje, estableciendo abstracciones y conceptos, resolviendo tipos de problemas que hasta la actualidad sólo han sido reservados a los humanos, y mejorarlos. La parte ambiciosa a la que me refiero es que ellos sugerían que con un grupo de científicos cuidadosamente seleccionado lo podían hacer en un verano, pues por lo visto en la realidad ya van más de medio siglo sin aún conseguirlo, por ejemplo para But Brooks el conocimiento que se ha logrado en el mejor de los casos hasta la actualidad no supera al conocimiento que tiene o puede tener un niño de 2 años de edad.

En It’s OK Again podemos encontrar algunas concepciones acerca de lo que comprende la Inteligencia Artificial de acuerdo a los diferentes criterios emitidos por gurúes de este campo de la computación.

Análisis de las tendencias existentes en el campo de la inteligencia artificial

En el mismo año que fuese publicado el libro “El manual de la Inteligencia Artificial”, los investigadores G.E. Hinton y J.A. Anderson desarrollaban un libro en el que se trataban los temas de “Modelos paralelos de memoria asociativa”, luego de esto se les unieron los David Rumelhart y James McClelland, emprendiendo en un proyecto cuyo resultado fue una obra acerca del “Procesamiento paralelo distribuído”.

Se ha propuesto estos datos debido a que representan unos excelentes ejemplos para explicar las dos corrientes presentes en el estudio de la IA, estas corrientes son:

Simbolismo: la inteligencia consiste en la capacidad de manipular símbolos, entes que no nos interesan por lo que son sino por lo que representan, en la aptitud para manejar las cosas directamente.

Para aclarar ideas tenemos que se considera como símbolo en IA. El concepto de símbolo adquiere en computación un significado muy concreto: es un puntero, una flecha almacenada en un lugar de memoria que señala a otro lugar de la memoria (donde se encuentra el valor del símbolo o el proceso con el que el símbolo está asociado).

Conectivismo: es la integración de los principios explorados por la teoría del caos, las redes y la complejidad y auto-organización del propio aprendizaje.

Referencias:

Conocimiento abierto, sociedad libre (en línea) citado el 5 de junio del 2008. Disponible en WWW: http://www.cibersociedad.net/congres2006/gts/comunicacio.php?llengua=es&id=851http://

Inteligencia artificial, en la frontera de la ciencia libre (en línea) citado el 5 de junio del 2008. Disponible en www: www.claudiogutierrez.com/frontera.html

AI: It’s OK Again! (en línea) citado el 5 de junio del 2008. Disponible en www: http://www.ddj.com/cpp/201804174;jsessionid=025YASCGM1UOIQSNDLPSKH0CJUNN2JVN?pgno=2

Galo Rodrigo Lalangui Eras (en línea) citado el 6 de junio del 2008. Disponible en www: http://galopriva.wordpress.com