Archive for the ‘UTPL’ Category

Los modelos ocultos de Markov (HMM) desempeñan un función importante el desarrollo de herramientas para la modelización altamente flexible, inicialmente utilizada en el campo del reconocimiento automático del habla, que ha encontrado en los últimos años numerosas aplicaciones en áreas científico-técnicas muy diversas, aunque su utilización en otras áreas es escasa. Dentro de la descripción de los elementos esenciales de los HMM, se presentan los algoritmos básicos que facilitan su estimación y se indica una herramienta reciente, para las posibilidades que puedan ofrecer un análisis de patrones espaciales complejos, pues permiten incorporar en el proceso de modelización información a priori sobre el sistema analizado.

En las áreas en las que los HMM están más extendidos, se utilizan, en general, con un enfoque de aprendizaje automático, en problemas en los que se dispone de una abundante base de datos (denominados de entrenamiento) con los que es posible seleccionar y estimar el HMM más apropiado (a veces, con un gran número de estados ocultos), obteniéndose modelos con una alta capacidad de predicción, pues el problema típico es clasificar o identificar nuevos datos.[1]

Los algoritmos necesarios para los HMM discretos son fácilmente implementables, la complejidad aumenta en el caso continuo y en las extensiones a los modelos básicos. Afortunadamente, existen distintas herramientas para el trabajo con HMM disponibles, muchas de ellas de uso libre, para diferentes entornos de computación [2]

El programa comercial MATLAB (http://www.mathworks.com/products/matlab/), en su paquete (toolbox) de estadística, ofrece las funciones básicas para construir, simular y analizar HMM discretos.

Mediante la creación de redes neuronales con las herramientas: JNNS (Java Neural Network Simulator), JHMMSim (Java Hidden Harkov Model Simulator).

Esta herramienta desarrollada por Relex, es una herramienta flexible, de gran alcance para modelar sistemas complejos, Relex Markov ® proporciona una muy buena capacidad de análisis de las cadenas ocultas de Markov en una forma fácil de usar, completo paquete. Relex Markov provides fast, accurate reliability analyses for complex systems with common cause failures, degradation, induced or dependent failures, multi-operational state components, and other sequence-dependent events. Relex Markov proporciona una rápida, análisis de fiabilidad de sistemas complejos con los fallos por causa común, la degradación, inducidos o fracasos dependen de múltiples componentes operativos, y otros que dependen de secuencia de eventos.

Características y Beneficios de Tecnic. Markov

  • Estado de transición diagramas
  • Eventos dependientes
  • Degradamientos, y los Estados fallidos
  • Flujo de resultados en el estado estable
  • Los fallos por causa común
  • Inducida por los fracasos
  • Sistema de degradación
  • Multi-operational state components Multi-Estado de funcionamiento componentes
  • Cost analysis Análisis de costos.

Figura 1.- El desarrollador de Relaciones Markov calcula las cifras de la dinámica de árboles que falta construir utilizando Relex Fault Tree. [4]

Figura 2.- Sistema de estados y transiciones son fácilmente diagramados, los parámetros pueden ser asignados con simplicidad y haciendo clic en las operacion

Juan Pablo Pizarro.

Anuncios

Los Árboles de clasificación, o también llamados modelos basados en árboles, se fundamentan en el principio de “divide y vencerás”, construyendo un árbol que en cada nodo establece unas condiciones sobre un atributo, dividiendo así el conjunto de casos en subconjuntos que cumplen cada condición. Los subconjuntos se vuelven a dividir añadiendo nuevos niveles al árbol hasta detenerse mediante algún criterio.

· Reglas de Clasificación: las reglas con cláusulas de lógica proposicional donde las premisas son condiciones sobre los atributos de los ejemplos y el consecuente es una etiqueta con la clase que se le asignará en caso de que se aplique la regla.

Los árboles de clasificación presentan dos ventajas fundamentales respecto a las redes neuronales.

La primera, es que el conocimiento que se extraiga el árbol se puede representar de forma inteligible mediante reglas de decisión.

La segunda es que obedece a un criterio estadístico, puesto que para llegar a la solución establece distribuciones de probabilidad sobre las categorías de las clases en cada uno de sus nodos.

También, existen opciones de mejoras de estos modelos, en donde elegir es mucho más reducido que el de redes neuronales, este proceso implica tener dos grandes grupos de algoritmos de “poda” del árbol, la pre-poda y la post-poda

En la pre-poda se van aplicando criterios al desarrollo del árbol, y si aplicamos algún tipo de condición que varié esos criterios, estaríamos frenando el desarrollo del árbol, por lo que evitaríamos un sobre entrenamiento que se podría dar, al presentársele casos nuevos que debilitarían sus capacidad de generalización.

La post-poda, es el otro criterio, y el más usado ya que permite un desarrollo total del árbol hasta conseguir nodos homogéneos, para luego eliminarse utilizando algún criterio.

Estos algoritmos se enfocan en la capacidad de disminuir el (overfitting) o sobreentrenamiento de un árbol, sin perder indirectamente la capacidad de generalización, que puedes enfrentarse a nuevos casos de una manera eficiente.

Una ventaja que presenta sobre otros métodos es que la forma de representar el conocimiento es más sencilla. En lugar de usar el conjunto de variables para tomar una decisión, se trata de usar diferentes subconjuntos de las variables, para diferentes niveles del árbol (reglas de decisión).

Ventajas:

Los árboles de clasificación, poseen:

· La regla de asignación son simples y legibles, por tanto la interpretación de resultados es directa e intuitiva.

· Es robusta frente a datos típicos u observaciones mal etiquetadas.

· Es válida sea cual fuera la naturaleza de las variables explicativas: continuas, binarias nominales.

· Es una técnica no paramétrica que tiene en cuenta las interacciones que pueden existir entre los datos.

· Es rápido computacionalmente.

Desventajas:

Se puede mencionar como:

· Las reglas de asignación son inestables.

· Dificultad para elegir el árbol óptimo.

· Ausencia de una función global de las variables y como consecuencia pérdida de la representación geométrica.

· Los árboles de clasificación requieren un gran número de datos para asegurarse que la cantidad de las observaciones de los nodos hoja es significativa.

Elaborado por: Juan Pablo Pizarro.

Las redes bayesianas o probabilísticas son una representación gráfica de dependencias para razonamiento probabilístico en sistemas expertos, en la cual los nodos y arcos representan:

  • Nodo: Variable proposicional.
  • Arcos: Dependencia probabilística.

El aprendizaje en las redes bayesianas se divide en dos grandes grupos:

APRENDIZAJE ESTRUCTURADO: Con el cual se obtiene la estructura de la red, es decir se obtienen las relaciones, dependencias e independencia entre las variables. Dentro de este grupo se encuentran clasificados: El aprendizaje de árboles y el aprendizaje poliárboles.

Aprendizaje de árboles: En este método de aprendizaje se trata de aproximar una distribución de probabilidad, por medio del producto de probabilidades de segundo orden. La resolución de este tipo de problemas de aprendizaje se plantea como un problema de optimización, es decir, obtener una estructura de árbol que se aproxime a una distribución basada en la diferencia de una distribución real y aproximada.

El algoritmo para determinar árbol Bayesiano óptimo a partir de datos es el siguiente:

1. Calcular la información mutua entre todos los pares de variables (n(n-1)/2).

2. Ordenar las informaciones mutuas de mayor a menor.

3. Seleccionar la rama de mayor valor como árbol inicial.

4. Agregar la siguiente rama mientras no forme un ciclo, si es así, desechar.

5. Repetir (4) hasta que se cubran todas las variables (n-1ramas)

Aprendizaje de Poliárboles: Se basa en el uso de pruebas de tres variables o comúnmente llamadas tripletas. Se basa en el algoritmo de árboles y se determina la dirección de los arcos mediante el uso de pruebas de dependencia.

Los pasos del algoritmo son:

1. Mantener el esqueleto usando el algoritmo de árboles.

2. Recorrer la red hasta encontrar una tripleta de nuevo, que sean convergentes (la variable a donde apuntan los arcos se conoce como nodo multipadre).

3. Del nodo multipadre se determinan las direcciones de otros arcos, esto mediante la prueba de dependencia en tripletas.

4. Repetir los pasos anteriores hasta que no hayan más direcciones que descubrir.

APRENDIZAJE PARAMÉTRICO:

Dada una estructura, obtener las probabilidades a priori y condicionales requeridas.

El aprendizaje paramétrico consiste en encontrar los parámetros asociados a una estructura dada de una red bayesiana. Dichos parámetros consisten en las probabilidades a priori de los nodos raíz y las probabilidades condicionales de las demás variables, dados sus padres. Si se conocen todas las variables, es fácil obtener las probabilidades requeridas. Las probabilidades previas corresponden a las marginales de los nodos raíz, y las condicionales se obtienen de las conjuntas de cada nodo con su(s) padre(s). Para que se actualicen las probabilidades con cada caso observado, éstas se pueden representar como razones enteras, y actualizarse con cada observación.

Elaborado: Javier Capa.


Las redes neuronales pretenden imitar el funcionamiento del conjunto de neuronas que funcionan y forman el cerebro humano. Alan Turing fue el primero en estudiar el cerebro como una forma de ver el mundo de la computación. Quienes han realizado estudios, investigaciones y ha podido modelar una red neuronal y, se acredita la creación de redes neuronales para otros fines que no sea solo el biológico, son Warren McCulloch y Walter Pitts. Estos dos investigadores propusieron un modelo matemático de neurona. La meta principal era obtener información referente al funcionamiento y comportamiento del cerebro. El modelo consistía en proporcionar a cada neurona de un conjunto de datos de entrada y salida, para activar la neurona era necesario calcular la suma de los productos de cada una de las entradas y, la salida en cambio, es una función, resultado de la activación. El recurso principal de este modelo son los pesos que se proporciona a cada entrada, es decir, los pesos de las conexiones entre neuronas. Si los pesos llegan a variar, el resultado de las salidas se modificará. Por lo tanto, el valor de los pesos de cada entrada es directamente proporcional al resultado de las salidas del modelo. A finales del siglo XIX se logró una mayor claridad sobre el trabajo del cerebro debido a las investigaciones de Ramón y Cajal en España y Sherrington en Inglaterra. El primero trabajó en la anatomía de las neuronas y el segundo en los puntos de conexión de las mismas o sinapsis.

Aproximadamente en el cerebro hay 50.000 neuronas por cada milímetro del cerebro, y billones de neuronas en todo el sistema neuronal. El tamaño y forma de las neuronas varía, lo que no varía son las partes de las cuales se compone, soma de la neurona, dendritas y axón. Se puede decir que la creación de redes neuronales y sus diferentes interpretaciones en cuanto a modelos, se puede aplicar en el campo informático y que ha servido en la mejora de procesos de sistemas computacionales complejos, como se comportan y la experiencia que adquieren estos en base a la información recibida y procesada. En el campo de la medina, ha servido para obtener información del comportamiento del cerebro y mejorar los diagnósticos de las diferentes anomalías que se generan en él. Seguir leyendo »

El análisis de clusters es una colección de métodos estadísticos que permiten agrupar casos sobre los cuales se miden diferentes variables o características.

Los clusters deben ser hallados in información previa y serán sugeridos únicamente por la propia esencia de los datos.

Existen dos métodos de bloques de clustering: los jerárquicos y los no jerárquicos o particionales.

Para ver artículo completo ir a: http://techi322.wordpress.com/2008/08/08/clasificacion-analisis-de-clusters/

REDES NEURONALES (RNA)

Introducción

Las Redes Neuronales surgieron del movimiento conexionista, que nació junto con la Inteligencia Artificial (IA) simbólica o tradicional. Esto fue hacia los años 50, con algunos de los primeros ordenadores de la época y las posibilidades que ofrecían. La IA simbólica se basa en que todo conocimiento se puede representar mediante combinaciones de símbolos, derivadas de otras combinaciones que representan verdades incuestionables o axiomas. Así pues, la IA tradicional asume que el conocimiento es independiente de la estructura que maneje los símbolos, siempre y cuando la ‘máquina’ realice algunas operaciones básicas entre ellos [2].

Definición

Una red neuronal artificial (Artificial Neural Network, ANN), es un procesador masivamente paralelo distribuido que es propenso por naturaleza a almacenar conocimiento experimental y hacerlo disponible para su uso. Este mecanismo se parece al cerebro en dos aspectos:

 

1.      El conocimiento es adquirido por la red a través de un proceso que se denomina aprendizaje.

2.      El conocimiento se almacena mediante la modificación de la fuerza o peso sináptico de las distintas uniones entre neuronas [1].


 ELEMENTOS BÁSICOS QUE COMPONEN UNA RED NEURONAL.

A continuación se puede ver, en la Figura, un esquema de una red neuronal:

La misma está constituida por neuronas interconectadas y arregladas en tres capas (esto último puede variar). Los datos ingresan por medio de la “capa de entrada”, pasan a través de la “capa oculta” y salen por la “capa de salida”. Cabe mencionar que la capa oculta puede estar constituida por varias capas.

Los elementos que permiten clasificar los diferentes tipos de redes son los siguientes aspectos:

  • Número y disposición de las neuronas.
  • No-linealidad presente en cada neurona.
  • Red de Interconexión.
  • Algoritmo de entrenamiento.
  • Comportamiento estático y dinámico [3].

 

VENTAJAS QUE OFRECEN LAS REDES NEURONALES

 

Debido a su constitución y a sus fundamentos, las redes neuronales artificiales presentan un gran número de características semejantes a las del cerebro. Por ejemplo, son capaces de aprender de la experiencia, de generalizar de casos anteriores a nuevos casos, de abstraer características esenciales a partir de entradas que representan información irrelevante, etc. Esto hace que ofrezcan numerosas ventajas y que este tipo de tecnología se esté aplicando en múltiples áreas. Entre las ventajas se incluyen:

 

Aprendizaje Adaptativo. Capacidad de aprender a realizar tareas basadas en un entrenamiento o en una experiencia inicial.

 

Auto-organización. Una red neuronal puede crear su propia organización o representación de la información que recibe mediante una etapa de aprendizaje.

 

Tolerancia a fallos. La destrucción parcial de una red conduce a una degradación de su estructura; sin embargo, algunas capacidades de la red se pueden retener, incluso sufriendo un gran daño.

 

Operación en tiempo real. Los cómputos neuronales pueden ser realizados en paralelo; para esto se diseñan y fabrican máquinas con hardware especial para obtener esta capacidad.

 

Fácil inserción dentro de la tecnología existente. Se pueden obtener chips especializados para redes neuronales que mejoran su capacidad en ciertas tareas. Ello facilitará la integración modular en los sistemas existentes [4].

 

Por: Lourdes Morocho

REFERENCIAS:

[1]  Blanco, Vega Ricardo, Extracción de Reglas de Redes Neuronales Artificiales, Universidad Politécnica de Valencia, Departamento de Sistemas Informáticos y Computación, tomado de PresentaER.pps, disponible en: http://www.dsic.upv.es/~rblanco

[2]  Introducción a las Redes Neuronales, Xavier Padern disponible en:

http://www.redcientifica.com/doc/doc199903310003.html

 

[3] Aprendizaje Automático: conceptos básicos y avanzados (2006), Basilio Sierra Araujo.

[4] Universidad Tecnológica Nacional – Facultad Regional Rosario Departamento de Ingeniería Química Grupo de Investigación Aplicada a la Ingeniería Química (GIAIQ). Redes Neuronales: Conceptos Básicos y Aplicaciones.pdf

 

Modelos Ocultos de Markov

Un modelo oculto de Markov o HMM (por sus siglas del inglés, Hidden Markov Model), es un proceso por el cual se observa el comportamiento del sistema de manera indirecta pues los estados del mismo permanecen ocultos para el observador.

 

El objetivo principal es encontrar los valores desconocidos a partir de parámetros observables, estos modelos describen un proceso de probabilidad el cual produce una secuencia de parámetros observables, se denominan ocultos por que existe probabilidades ocultas que afectan al resto de estados observados.

 

Un modelo oculto de Markov es un conjunto finito de estados probabilísticos, en el que el estado esta conectado a otro por un arco de transición, en donde cada arco tiene diversas probabilidades que pueden cambiar en algún instante del tiempo, entonces se puede decir que el sistema se encuentra en uno de los posibles estados y habrá un cambio de un estado a otro en intervalos iguales de tiempo.

 

Figura 1. Ejemplo de un modelo de Markov [1]

 

Probabilidad de que el día permanezca, lluvioso, nubloso soleado

 

Cada estado (S + 1) depende del estado anterior S y no del progreso del sistema.

 

Tipos de HMM

Los modelos ocultos de Markov se clasifican según la función de la matriz de distribuciones de probabilidad de emisión, estos son:

 

 

HMM discretos

En este modelo las observaciones son vectores de símbolos de un alfabeto finito con M + 1 elementos diferentes, en este caso se define el número de símbolo observables M, el conjunto de estados, y las probabilidades que definen el modelo oculto de Markov.

 

HMM continuos

Las probabilidades que dominan la emisión de los parámetros observables están definidas sobre espacios de observación continuos, se restringe la forma de distribuciones para obtener un número manejable de parámetro a estimar.

 

 

HMM semicontinuos

Para aplicar este modelo se debe realizar un entrenamiento a varios modelos con bases de datos limitadas, estos modelos al igual que los continuos se realizan a partir de combinaciones de distribuciones probabilísticas. La diferencia de estos modelos es que las funciones base son comunes en todos los modelos.

 Autor: Auliria Torres

Referencias

[1] Luís Miguel Bergasa Pascual, Introducción a los modelos ocultos de Markov, Departamento de electrónica, Universidad de Alcalá, disponible en: http://www.depeca.uah.es/docencia/doctorado/cursos04_05/82854/docus/HMM.pdf

 

[2] Redes Neuronales y Modelos Ocultos de Markov, disponible en: http://catarina.udlap.mx/u_dl_a/tales/documentos/lis/clemente_f_e/capitulo2.pdf

 

[3] Basilio Sierra Araujo, Aprendizaje Automático: Conceptos básicos y avanzados.

Redes Bayesianas

Las Redes Bayesianas son un grafo acíclico dirigido que consta de nodos que representan las variables aleatorias y los arcos son las dependencias probabilísticas de cada variable, las redes bayesianas son un conjunto de variables aleatorias representadas en un grafo dirigido, el arco entre dos variables x e y, significa una influencia directa de x sobre y.

 

Los nodos son cualquier variable como por ejemplo variables que se pueden medir, variables latentes o hipótesis. Las redes bayesianas son utilizadas para sistemas expertos y se pueden utilizar diversos tipos de algoritmos para recopilar conocimiento par a estos sistemas.

 

Figura 1. Ejemplo de una red bayesiana [1]

 

 

Los nodos representan variables aleatorias y los arcos las relaciones de dependencia. En esta red observamos que [1]:

  • Caries es una causa directa de Dolor y Huecos
  • Dolor y Huecos son condicionalmente independientes dada Caries
  • Tiempo es independiente de las restantes variables

 

Existen diferentes tipos de redes bayesianas [2]:

 

  • Naive Bayes = bayes “ingenuo” o Idiot’s Bayes

Forma de “V” => 2 ^ n estados en el nodo inferior

 

  • DBNs = Redes Bayesianas Dinámicas

Cambian con el tiempo (t, t+1, t+2…)

Lo pasado en t, tiene relación con lo que suceda en t+1

 

  • Redes Gaussianas = distribución gaussiana

Para nodos con variables continuas

 

  • Cadenas de Markov = subconjunto de las RB

 

Aplicaciones

Las redes bayesianas tienen múltiples aplicaciones, se puede aplicar este modelo en empresas que necesiten diagnosticar problemas o fallos o también para minería de datos.

A continuación tenemos algunos campos en donde podemos aplicar las redes bayesianas [3]:

 

 

  • Prevención del fraude
  • Prevención del abandono de clientes
  • Blanqueo de dinero
  • Marketing personalizado
  • Mantenimiento preventivo
  • Clasificación de datos estelares

Aplicaciones en empresas [1]:

 

  • Microsoft: Answer Wizard (Office), diagnostico de problemas de impresora.
  • Intel: Diagnostico de fallos de procesadores
  • HP: Diagnostico de problemas de impresora
  • Nasa: Ayuda a la decisión de misiones espaciales

 Por: Auliria Torres

Referencias

 

[1] José L. Ruiz Reina, Introducción a las Redes Bayesianas, Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla, disponible en:

http://www.cs.us.es/cursos/ia2-2005/temas/tema-08.pdf

[2] Álvaro Marín Illera, Sistemas Expertos, Redes Bayesianas y sus aplicaciones, Semana ESIDE, Abril 2005, Universidad de Deusto, disponible en:

http://www.e-ghost.deusto.es/docs/2005/conferencias/Bayes05.pdf

 

[3] Red bayesiana, disponible en: http://es.wikipedia.org/wiki/Red_bayesiana

 

[4] Jorge Luís Guevara Díaz, Redes Bayesianas, disponible en: http://jorge.sistemasyservidores.com/si_2008i/clases/claseiarazonamientoprobabilistico.pdf

 

[5] Carlos López de Castilla Vásquez, Clasificadores Por Redes Bayesianas, Universidad de Puerto Rico, disponible en:

http://grad.uprm.edu/tesis/lopezdecastilla.pdf

 

 

Los Modelos Ocultos de Markov (HMM) representan un proceso en el cual se refleja un alto grado de probabilidades, probabilidades que generan una secuencia de acciones o eventos que se pueden observar, lo que no ocurre con el proceso de probabilidad utilizado, este no es observable, pero sí afecta directamente a la secuencia de acciones que lo son. Los Modelos Ocultos de Markov pueden ser definidos como un modelo de un proceso, el cual genera una secuencia de acciones o eventos de un dominio específico.

La principal meta de los HMM es identificar los valores desconocidos u ocultos de la secuencia de acciones generada a partir de valores o parámetros observables. “Un HMM se puede considerar como la red bayesiana dinámica más simple”. Los valores que se obtengan, son analizados y sus resultados pueden ser utilizados para desarrollarlas distintas aplicaciones como: reconocimiento de patrones, Traducción automática, Bioinformática, etc.

Según el desarrollo de dichas aplicaciones o el análisis que se requiera se utiliza una arquitectura de Modelos Ocultos de Markov. Esta arquitectura viene dada por el número de estados (variable aleatoria) que lo componen y las transiciones o conexiones entre los estados. De igual manera ocurre en las redes neuronales, su arquitectura depende mucho del número de neuronas (estados) y las transiciones entre estas (conexiones sinápticas). Existen dos modelos principales que representan la arquitectura de un HMM: Modelos HMM de izquierda a derecha y Modelos HMM ergódicos.

En los modelos de izquierda a derecha, los elementos o las probabilidades que genera las acciones o eventos deben cumplir con una condición Aij = 0, donde j<i. Esto significa que, si el modelo se encuentra en un determinado tiempo (t), en el siguiente instante (t+1), el modelo permanecerá con el mismo valor de probabilidad Aii, de no ocurrir esto, el modelo pasará a un estado j-ésino con una probabilidad Aij. Este modelo es idóneo para aquellas aplicaciones en los cuales se sigue un proceso secuencial, por ejemplo: la identificación de blancos aéreos, en los cuales se utiliza una secuencia de entrenamiento para cada objetivo basados en un conjunto de observaciones almacenadas en un array.

Lo contrario ocurre con los modelos ergódicos, estos pueden evolucionar desde cualquier estado a otro en un número finito de transiciones, todas las transiciones son posibles. Este modelo es aplicado en proceso en los cuales se produce una toma de decisiones, otro ejemplo claro, es el reconocimiento de gestos, en el cual se utiliza una base de entrenamiento construida en base a la información obtenida de los gestos, esta base se ajusta a los valores, se la interrelaciona y se obtiene los resultados.

Los modelos deben ser seleccionados según la aplicación, deben ser ejecutados adecuadamente y cumplir con las condiciones que en cada modelo se estimen pertinentes.

Autores:

Daniel Valdivieso

Diego Guamán

Al leer el documento AI: It’s OK Again, (de este documento revisar las dos páginas) he podido darme cuenta de algunas variantes e interpretaciones dadas por gurúes, los mismos que han emitido sus criterios a lo largo de los últimos 50 años, desde la aparición de la misma.

Rememorando un poco de historia recuperada del libro Inteligencia Artificial [un enfoque moderno], tenemos que el término Inteligencia Artificial fue acuñado en el año de 1956, luego de la Segunda Guerra mundial, el objetivo de la IA va más allá de la comprensión de ideas y conceptos, su orientación está más bien orientada a construir entidades inteligentes, como primer punto de partida para realizar esto se utilizó la máquina de Turing, misma que fue propuesta por Alan Turing (1950), máquina que fue diseñada para proporcionar una definición operacional y satisfactoria de la inteligencia.

Entre los aspectos relevantes de esta prueba se describía que un computador debe contar con algunas características para poder decir que es inteligente:

Procesamiento de lenguaje natural: que le permita comunicarse satisfactoriamente en inglés

Representación del conocimiento: para almacenar lo que se conoce o se siente.

Razonamiento automático: para utilizar la información almacenada para responder a preguntas y extraer nuevas conclusiones

Aprendizaje automático: para adaptarse a nuevas circunstancias y para detectar y explotar patrones.

Estos fueron los criterios iniciales de la prueba de Turing, más analizando que se requería de una interacción con el medio ambiente entonces se desarrollo la prueba global de Turing, la misma en la cual se incluían los siguientes aspectos:

Visión computacional: para percibir objetos

Robótica: para manipular y mover objetos.

Luego de dar esta parte introductoria que me pareció de gran interés, me dispongo a mostrar los criterios de muchos autores y desarrollar un criterio personalizado de cada concepto, desde mi punto de vista personal.

En “Dartmouth Summer Reseach Conference on Artificial Intelligence” llevada a cabo en el año de 1956, se propuso una estimación visionaria y un poco ambiciosa a la vez. la misma decía lo siguiente:

“An attempt will be made to find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves. We think that a significant advance can be made in one or more of these problems if a carefully selected group of scientists work on it together for a summer.”

Análisis: para ellos la inteligencia artificial representaba un intento por hacer o encontrar el cómo las máquinas puede usar el lenguaje, estableciendo abstracciones y conceptos, resolviendo tipos de problemas que hasta la actualidad sólo han sido reservados a los humanos, y mejorarlos. La parte ambiciosa a la que me refiero es que ellos sugerían que con un grupo de científicos cuidadosamente seleccionado lo podían hacer en un verano, pues por lo visto en la realidad ya van más de medio siglo sin aún conseguirlo, por ejemplo para But Brooks el conocimiento que se ha logrado en el mejor de los casos hasta la actualidad no supera al conocimiento que tiene o puede tener un niño de 2 años de edad.

En It’s OK Again podemos encontrar algunas concepciones acerca de lo que comprende la Inteligencia Artificial de acuerdo a los diferentes criterios emitidos por gurúes de este campo de la computación.

Análisis de las tendencias existentes en el campo de la inteligencia artificial

En el mismo año que fuese publicado el libro “El manual de la Inteligencia Artificial”, los investigadores G.E. Hinton y J.A. Anderson desarrollaban un libro en el que se trataban los temas de “Modelos paralelos de memoria asociativa”, luego de esto se les unieron los David Rumelhart y James McClelland, emprendiendo en un proyecto cuyo resultado fue una obra acerca del “Procesamiento paralelo distribuído”.

Se ha propuesto estos datos debido a que representan unos excelentes ejemplos para explicar las dos corrientes presentes en el estudio de la IA, estas corrientes son:

Simbolismo: la inteligencia consiste en la capacidad de manipular símbolos, entes que no nos interesan por lo que son sino por lo que representan, en la aptitud para manejar las cosas directamente.

Para aclarar ideas tenemos que se considera como símbolo en IA. El concepto de símbolo adquiere en computación un significado muy concreto: es un puntero, una flecha almacenada en un lugar de memoria que señala a otro lugar de la memoria (donde se encuentra el valor del símbolo o el proceso con el que el símbolo está asociado).

Conectivismo: es la integración de los principios explorados por la teoría del caos, las redes y la complejidad y auto-organización del propio aprendizaje.

Referencias:

Conocimiento abierto, sociedad libre (en línea) citado el 5 de junio del 2008. Disponible en WWW: http://www.cibersociedad.net/congres2006/gts/comunicacio.php?llengua=es&id=851http://

Inteligencia artificial, en la frontera de la ciencia libre (en línea) citado el 5 de junio del 2008. Disponible en www: www.claudiogutierrez.com/frontera.html

AI: It’s OK Again! (en línea) citado el 5 de junio del 2008. Disponible en www: http://www.ddj.com/cpp/201804174;jsessionid=025YASCGM1UOIQSNDLPSKH0CJUNN2JVN?pgno=2

Galo Rodrigo Lalangui Eras (en línea) citado el 6 de junio del 2008. Disponible en www: http://galopriva.wordpress.com