Posts Tagged ‘UTPL’

PARADIGMAS DE APRENDIZAJE AUTOMÁTICO

¿Qué es el aprendizaje automático?

Es una rama de la Inteligencia Artificial que tiene como objetivo el desarrollar técnicas que permitan que las computadoras puedan aprender.

Es decir, crear programas que sean capaces de generalizar los comportamientos partiendo de una información que no esté estructurada suministrada en forma de ejemplos.

Para ver artículo completo ir al siguiente enlace:

http://robpau007.wordpress.com/

Por: Roberth Paúl Bravo Castro

Anuncios

Aprendizaje por Refuerzo

APRENDIZAJE POR REFUERZO

Existen algunas formas de aprendizaje de los agentes inteligentes, el aprendizaje entra en juego cuando el agente observa sus iteraciones con el mundo y sus procesos de toma de decisiones. Existen tres formas de aprendizaje: Aprendizaje supervisado, no supervisado y el aprendizaje por refuerzo.

El aprendizaje por refuerzo consiste en aprender a decidir, ante una situación determinada, que acción es la más adecuad para lograr un objetivo. Consta de dos componentes. Componente selectiva que involucra la selección de la mejor acción a ejecutar de entre varias opciones y la componente asociativa, en el sentido de que las alternativas encontradas se asocian a situaciones particulares en que se tomaron.

El aprendizaje por refuerzo es adecuado cuando no existe un conocimiento “a priori” del entorno o este es demasiado complejo como para utilizar otros métodos.

MODELO DE APRENDIZAJE POR REFUERZO

Un agente hardware y software está conectado a su entorno vía percepción y acción. En cada instante el agente recibe desde l entorno a través de sensores el estado en el que se encuentra, s; entonces el agente decide ejecutar una acción, a , que genera como salida. Esta salida cambia el estado del entorno a s’, que es transmitido al agente junto a una señal de refuerzo r. esta señal informa al agente de la utilidad de ejecutar la acción a, desde el estado s para lograr un objetivo concreto. Este modelo se ilustra en la siguiente figura:

Figura1. Modelo de Aprendizaje por Refuerzo

El aprendizaje puede ser pasivo y activo.

En el aprendizaje pasivo la política del agente está fijada y la tarea es aprender las utilidades de los estados (o parejas estado acción) mientras que el aprendizaje activo el agente debe aprender también que hacer. El esfuerzo activo además de recoger información del entorno utilizará ésta para tomar decisiones sobre la siguiente acción a realizar.

El objeto del aprendizaje mediante el refuerzo es un comportamiento que permite resolver problemas óptimamente. Un comportamiento no es más que un conjunto de acciones que se realizan para resolver un problema y política al conjunto de acciones que se realizan en cada situación para resolver un problema.

Debido a que se produce una señal de esfuerzo. Esta se divide en inmediata o retardada

REFUERZO INMEDIATO

En éste refuerzo se obtiene una crítica para cada acción efectuada justo después de su realización. La información que aporta el refuerzo inmediato es local a cada acción tomada. Debe aprenderse una acción a realizar en cada situación para obtener un refuerzo positivo después de su ejecución.

Existen diversos algoritmos para el aprendizaje por refuerzo inmediato como:

  • ALGORITMO LINEAL DE PREMIO-CASTIGO
  • ALGORITMO LINEAL DE REFUERZO – INACCION

ü REFUERZO RETARDADO

Este refuerzo es más complicado ya que no tenemos una crítica para cada acción sino una estimación global del comportamiento. Se presenta cuando no se completa la secuencia de acciones empleadas para resolver el problema

Al ejecutar una acción el refuerzo no solo depende de ella sino también de las realizadas anteriormente.

REFUERZO PASIVO

Solo tenemos una estimación global del comportamiento y no una crítica para cada acción realizada, con lo cual el problema se complica. El esfuerzo obtenido al ejecutar una acción no depende únicamente de ella sino también de las realizadas anteriormente. El entorno genera las transiciones y el agente las percibe.

BIBLIOGRAFIA

MoMORENO A., Armengol E, Béjar J., Sánchez M., “Aprendizaje Automático”, 1994

Dr COOK Peter, “Intelligent Systems-Fusion, Tracking and Control”, 2003

RUSELL Stuart, NORVING Peter , “Inteligencia Artificia Un Enfoque Moderno”

BAARAUJO Basilo, “Aprendizaje Automático: Conceptos Básicos y Avanzados” ,2006

http://www.fleifel.net/ia/robotsyaprendizaje.php

http://www.cs.us.es/~delia/sia/html98-99/pag-alumnos/web10/indice.html

Redes Bayesianas

REDES BAYESIANAS

Figura 1. Redes Bayesianas

El estudio de las redes bayesianas son diseñadas con el fin de hallar las relaciones de dependencia e independencia entre todas las variables que conforman un dominio de estudio. De ésta manera permite realizar predicciones sobre el comportamiento de cualquiera de las variables desconocidas a partir de los valores de las otras variables conocidas.

Es un grafo acíclico dirigido en el que cada nodo representa una variable aleatoria y cada arco una dependencia probabilística. Proveen una forma compacta de representar el conocimiento y métodos flexibles de razonamiento.

Una red bayesiana tiene dos componentes principales: cualitativo y cuantitativo.

ü En el campo cualitativo tenemos un grafo acíclico dirigido en el que cada nodo corresponde a un atributo (variable), y arcos dirigidos implicando que toda variable es condicionalmente independiente de todos sus no descendientes en la red siempre que se conozcan los valores de sus inmediatos predecesores

ü En el campo cuantitativo cada nodo tiene asociada la distribución de probabilidad de esa variable teniendo en cuenta sus padres en el grafo.

Existen distintos tipos de Redes Bayesianas:

  • Naive Bayes
  • DBNs = Redes Bayesianas Dinámicas: Cambian con el tiempo (t, t+1, t+2…) y lo pasado en t, tiene relación con lo que suceda en t+1
  • Redes Gaussianas = distribución gaussiana: Para nodos con variables contínuas
  • Cadenas de Markov = subconjunto de las RB: Ejemplos: aire acondicionado

Aprendizaje en las Redes Bayesianas

Aprendizaje Paramétrico

En éste tipo de aprendizaje, dada la estructura, obtenemos las probabilidades asociadas. Aprende las probabilidades de la red en base a casos dados, por ejemplo un archivo pasado con los valores de cada variable.

Existen distintos algoritmos de aprendizaje, entre ellos:

  • EM (Expansión-Maximización): No necesita datos completos para el aprendizaje. Este contiene 2 fases:
  • Expansión: calculo de todas las probabilidades posibles por toda la red.
  • Maximización: se escoge la mayor probabilidad
  • ML (Maximum Likelihood): Necesita de datos completos para poder aprender. Es parecido al EM, pero sin la primera fase , es decir sin expansión.

Aprendizaje Estructural.

Consiste en encontrar las relaciones de dependencia entre las variables, de manera que se pueda determinar la topología o estructura de la red bayesiana. De acuerdo al tipo de estructura, podemos dividir métodos de aprendizaje en:

  • Aprendizaje de arboles
  • Aprendizaje de poliarboles
  • Aprendizaje de redes interconectadas

Estos algoritmos son capaces de aprender enlaces. También los podríamos clasificar en dos tipos de aprendizaje:

ü Basados en tests de independencia (algoritmos PC, NPC…)

Puntuación y búsqueda (Score & Search)

Aplicaciones:

Las Naive Bayes son aplicadas en la minería de datos Naive Bayes puede hacer predicciones para problemas multiclase, en los cuales hay varios resultados posibles. Por ejemplo, se puede construir un modelo para averiguar si un cliente en una organizaci;on o empresa será fiel o cambiará de proveedores. Se aplica tambien a un dominio médico e industrial, lo cuál permiten el uso de tiempo absoluto.

ž

Bibliografía

LOPEZ Carlos. CLASIFICADORES POR REDES BAYESIANAS [Consultado en línea]. Disponible en: http://grad.uprm.edu/tesis/lopezdecastilla.pdf

RUIZ José. Introducción a las Redes Bayesianas [Consultado en línea]. Disponible en: http://jorge.sistemasyservidores.com/si_2008i/clases/claseiarazonamientoprobabilistico.pdf

ROCHE Francisco. METODOS PARA OBTENER CONOCIMIENTO UTILIZANDO REDES BAYESIANAS Y PROCESOS DE APRENDIZAJE CON ALGORITMOS EVOLUTIVOS. [Consultado en línea]. Disponible en: http://www.lsi.us.es/docs/doctorado/memorias/TESINA-Roche.pdf

El sistema de neuronas biológico está compuesto por neuronas de entrada (censores) conectados a una compleja red de neuronas “calculadoras” (neuronas ocultas), las cuales, a su vez, están conectadas a las neuronas de salidas que controlan, por ejemplo, los músculos.

Para ver artículo completo ir al siguiente enlace: http://robpau007.wordpress.com/2008/08/08/redes-neuronales/

REDES NEURONALES (RNA)

Introducción

Las Redes Neuronales surgieron del movimiento conexionista, que nació junto con la Inteligencia Artificial (IA) simbólica o tradicional. Esto fue hacia los años 50, con algunos de los primeros ordenadores de la época y las posibilidades que ofrecían. La IA simbólica se basa en que todo conocimiento se puede representar mediante combinaciones de símbolos, derivadas de otras combinaciones que representan verdades incuestionables o axiomas. Así pues, la IA tradicional asume que el conocimiento es independiente de la estructura que maneje los símbolos, siempre y cuando la ‘máquina’ realice algunas operaciones básicas entre ellos [2].

Definición

Una red neuronal artificial (Artificial Neural Network, ANN), es un procesador masivamente paralelo distribuido que es propenso por naturaleza a almacenar conocimiento experimental y hacerlo disponible para su uso. Este mecanismo se parece al cerebro en dos aspectos:

 

1.      El conocimiento es adquirido por la red a través de un proceso que se denomina aprendizaje.

2.      El conocimiento se almacena mediante la modificación de la fuerza o peso sináptico de las distintas uniones entre neuronas [1].


 ELEMENTOS BÁSICOS QUE COMPONEN UNA RED NEURONAL.

A continuación se puede ver, en la Figura, un esquema de una red neuronal:

La misma está constituida por neuronas interconectadas y arregladas en tres capas (esto último puede variar). Los datos ingresan por medio de la “capa de entrada”, pasan a través de la “capa oculta” y salen por la “capa de salida”. Cabe mencionar que la capa oculta puede estar constituida por varias capas.

Los elementos que permiten clasificar los diferentes tipos de redes son los siguientes aspectos:

  • Número y disposición de las neuronas.
  • No-linealidad presente en cada neurona.
  • Red de Interconexión.
  • Algoritmo de entrenamiento.
  • Comportamiento estático y dinámico [3].

 

VENTAJAS QUE OFRECEN LAS REDES NEURONALES

 

Debido a su constitución y a sus fundamentos, las redes neuronales artificiales presentan un gran número de características semejantes a las del cerebro. Por ejemplo, son capaces de aprender de la experiencia, de generalizar de casos anteriores a nuevos casos, de abstraer características esenciales a partir de entradas que representan información irrelevante, etc. Esto hace que ofrezcan numerosas ventajas y que este tipo de tecnología se esté aplicando en múltiples áreas. Entre las ventajas se incluyen:

 

Aprendizaje Adaptativo. Capacidad de aprender a realizar tareas basadas en un entrenamiento o en una experiencia inicial.

 

Auto-organización. Una red neuronal puede crear su propia organización o representación de la información que recibe mediante una etapa de aprendizaje.

 

Tolerancia a fallos. La destrucción parcial de una red conduce a una degradación de su estructura; sin embargo, algunas capacidades de la red se pueden retener, incluso sufriendo un gran daño.

 

Operación en tiempo real. Los cómputos neuronales pueden ser realizados en paralelo; para esto se diseñan y fabrican máquinas con hardware especial para obtener esta capacidad.

 

Fácil inserción dentro de la tecnología existente. Se pueden obtener chips especializados para redes neuronales que mejoran su capacidad en ciertas tareas. Ello facilitará la integración modular en los sistemas existentes [4].

 

Por: Lourdes Morocho

REFERENCIAS:

[1]  Blanco, Vega Ricardo, Extracción de Reglas de Redes Neuronales Artificiales, Universidad Politécnica de Valencia, Departamento de Sistemas Informáticos y Computación, tomado de PresentaER.pps, disponible en: http://www.dsic.upv.es/~rblanco

[2]  Introducción a las Redes Neuronales, Xavier Padern disponible en:

http://www.redcientifica.com/doc/doc199903310003.html

 

[3] Aprendizaje Automático: conceptos básicos y avanzados (2006), Basilio Sierra Araujo.

[4] Universidad Tecnológica Nacional – Facultad Regional Rosario Departamento de Ingeniería Química Grupo de Investigación Aplicada a la Ingeniería Química (GIAIQ). Redes Neuronales: Conceptos Básicos y Aplicaciones.pdf

 

Los Modelos Ocultos de Markov (HMM) representan un proceso en el cual se refleja un alto grado de probabilidades, probabilidades que generan una secuencia de acciones o eventos que se pueden observar, lo que no ocurre con el proceso de probabilidad utilizado, este no es observable, pero sí afecta directamente a la secuencia de acciones que lo son. Los Modelos Ocultos de Markov pueden ser definidos como un modelo de un proceso, el cual genera una secuencia de acciones o eventos de un dominio específico.

La principal meta de los HMM es identificar los valores desconocidos u ocultos de la secuencia de acciones generada a partir de valores o parámetros observables. “Un HMM se puede considerar como la red bayesiana dinámica más simple”. Los valores que se obtengan, son analizados y sus resultados pueden ser utilizados para desarrollarlas distintas aplicaciones como: reconocimiento de patrones, Traducción automática, Bioinformática, etc.

Según el desarrollo de dichas aplicaciones o el análisis que se requiera se utiliza una arquitectura de Modelos Ocultos de Markov. Esta arquitectura viene dada por el número de estados (variable aleatoria) que lo componen y las transiciones o conexiones entre los estados. De igual manera ocurre en las redes neuronales, su arquitectura depende mucho del número de neuronas (estados) y las transiciones entre estas (conexiones sinápticas). Existen dos modelos principales que representan la arquitectura de un HMM: Modelos HMM de izquierda a derecha y Modelos HMM ergódicos.

En los modelos de izquierda a derecha, los elementos o las probabilidades que genera las acciones o eventos deben cumplir con una condición Aij = 0, donde j<i. Esto significa que, si el modelo se encuentra en un determinado tiempo (t), en el siguiente instante (t+1), el modelo permanecerá con el mismo valor de probabilidad Aii, de no ocurrir esto, el modelo pasará a un estado j-ésino con una probabilidad Aij. Este modelo es idóneo para aquellas aplicaciones en los cuales se sigue un proceso secuencial, por ejemplo: la identificación de blancos aéreos, en los cuales se utiliza una secuencia de entrenamiento para cada objetivo basados en un conjunto de observaciones almacenadas en un array.

Lo contrario ocurre con los modelos ergódicos, estos pueden evolucionar desde cualquier estado a otro en un número finito de transiciones, todas las transiciones son posibles. Este modelo es aplicado en proceso en los cuales se produce una toma de decisiones, otro ejemplo claro, es el reconocimiento de gestos, en el cual se utiliza una base de entrenamiento construida en base a la información obtenida de los gestos, esta base se ajusta a los valores, se la interrelaciona y se obtiene los resultados.

Los modelos deben ser seleccionados según la aplicación, deben ser ejecutados adecuadamente y cumplir con las condiciones que en cada modelo se estimen pertinentes.

Autores:

Daniel Valdivieso

Diego Guamán

Aprendizaje Automático

El Aprendizaje Automático es una rama de la Inteligencia Artificial en la cual su principal objetivo es desarrollar técnicas que permitan a las computadoras aprender, es decir, se considera como un proceso de inducción del conocimiento. El aprendizaje automático se centra en el estudio de la Complejidad Computacional de los problemas. Muchos problemas son de clase NP-hard, por lo que las aplicaciones desarrolladas en aprendizaje automático están enfocadas al diseño de soluciones viables a esos problemas.

Dentro de las aplicaciones de aprendizaje automático están: motores de búsqueda, diagnósticos médicos, detección de fraude en el uso de tarjetas de crédito, análisis del mercado de valores, clasificación de secuencias de ADN, reconocimiento del habla y del lenguaje escrito, juegos y robótica. Algunos expertos en el desarrollo de sistemas de aprendizaje automático han tratado de eliminar la intuición o el conocimiento de los procesos que se generan en la interacción hombre-máquina; otros, en cambio, tratan de establecer una colaboración entre estos dos elementos.

La participación humana y sus intuición no puede ser remplazada por una máquina, el humano, es decir, el experto que desarrolla estos sistemas es quién hace el diseño y determina los procesos que debe realizar el sistema o la máquina. Por lo tanto no puede ser remplazado, a excepción de algunas tareas o procesos que son automatizados para mejorar el rendimiento de estos sistemas.

A través del aprendizaje automático se puede generar tres tipos de conocimiento, cada tipo dependerá del tema que se desee aprender:

1. Crecimiento Es el que se adquiere de lo que nos rodea, el cual guarda la información en la memoria como si dejara huellas.

2. Reestructuración Al interpretar los conocimientos el individuo razona y genera nuevo conocimiento al cual se le llama de reestructuración.

3. Ajuste Es el que se obtiene al generalizar varios conceptos o generando los propios.

Existen algoritmos que son utilizados en el aprendizaje automático para la generación de conocimiento y el mejoramiento en el rendimiento de los sistemas computacionales. Son cinco los algoritmos utilizados, estos son:

1. Aprendizaje supervisado Produce una función que establece una correspondencia entre las entradas y las salidas deseadas del sistema.

2. Aprendizaje no supervisado Todo el proceso se lleva a cabo sobre un conjunto de ejemplos formado por entradas al sistema. No existe información de las categorías de esos ejemplos.

3. Aprendizaje por refuerzo El algoritmo aprende observando el mundo que le rodea. Su información de entrada es la retroalimentación que obtiene del exterior en función de sus acciones.

4. Transducción Similar al aprendizaje supervisado, pero no construye de forma explícita una función. Trata de predecir las categorías de los futuros ejemplos basándose en los ejemplos de entrada, sus respectivas categorías y ejemplos nuevos.

5. Aprendizaje multi-tarea Métodos de aprendizaje que usan conocimiento previamente aprendido por el sistema con el fin de enfrentarse a problemas similares a los vistos.

El aprendizaje automático se ha convertido en un eje fundamental de la Inteligencia Artificial. En la construcción de sistemas inteligentes, es necesario que estos aprendan y vayan adquiriendo experiencia conforme realizan sus procesos sin la necesidad de una supervisión por parte de expertos.

Autor: Daniel Valdivieso

Podado de Reglas de Decisión

Podado de Reglas de decisión

 Las reglas de decisión son formadas con el objetivo de poder describir un sistema en el cual pueden ocurrir diferentes eventos, estas reglas son un paradigma más genérico y flexible que los árboles de clasificación, son además fácilmente comprensibles y aplicables.

 Pruning

 Una forma de evaluar si una regla es buena es considerar la probabilidad de que una regla aleatoria nos de resultados iguales o mejores que la regla a considerar, basados en la mejora en ejemplos positivos cubiertos.

Generar reglas que cubran puros ejemplos positivos. Esta regla es probable que este sobre-especializada. Lo que se hace es que se elimina el último término que se añadió y se verifica si esta regla es mejor a la anterior (ver abajo). Este proceso se repite hasta que no existan mejoras (ver tabla 4.6).

 

Tabla 4.6: Algoritmo de podado de reglas.

 Inicializa E al conjunto de ejemplos

 Until E sea vacío do

     Para cada clase C

     Crea una regla perfecta para la clase C

     Calcula la medida de probabilidad m(R) para la regla

            y para la regla sin la última condición(R-)

         Mientras m(R-) < m (R), elimina la última condición

             de la regla y repite el proceso

        De las reglas generadas, selecciona aquella con m(R)  menor

        Elimina las instancias cubiertas por la regla

 

Este algoritmo no garantiza encontrar las mejores reglas por 3 razones principales:

 (i) el algoritmo para construir las reglas, no necesariamente produce las mejores reglas para ser reducidas,

(ii) la reducción de reglas empieza con la última condición, y no necesariamente es el mejor orden, y

(iii) la reducción de reglas termina cuando cambia la estimación, lo cual no garantiza que el seguir recortando pueda mejorar de nueva la estimación. [1]

 Sobre el tema específico de podado de reglas no hay mucha información, pero aquí un ejemplo de un algoritmo que aplica podado de reglas el Algoritmo de RIPPER, este algoritmo es una extensión del denominado IREP (Fϋrnkranz y Widner, 1994), a continuación pongo a consideración un extracto del artículo encontrado.

 

IREP (Incremental Reduced Error Pruning)

 El conjunto de reglas que se van a considerar en el algoritmo IREP (Fϋrnkranz y Widner, 1994) van a estar en forma normal disyuntiva. Conceptos básicos utilizados por IREP son los de regla (rule), conjunto de reglas (rule set) y regla parcial (partial rule).

 IREP necesita que el conjunto de casos o patrones etiquetados que denotamos por D se particione en dos. El primero de dichos subconjuntos Dpos va a contener el conjunto de patrones positivos, mientras que el segundo subconjunto Dneg va a contener el conjunto de patrones negativos. Además de esta partición es necesario subdividir cada uno de los subconjuntos anteriores (Dpos y Dneg) en otros dos subconjuntos. Es decir, a partir del conjunto de ejemplos positivos Dpos obtenemos Dgrow_pos y Dprune_pos subconjuntos relacionados respectivamente con la construcción y el podado de las reglas.

 Procedure IREP

    Begin

       Ruleset=0;

       While DPos = DGrow_Pos U DPrune_Pos  ≠ 0 do

          /* Construir y podar una nueva regla */

           Dividir D en DGrow_Pos U DGrow_Neg U DPrune_Pos U DPrune_Neg

               Rule := GrowRule (DGrow_Pos U DGrow_Neg)

               Rule := PruneRule (Rule, DPrune_Pos; DPrune_Neg)

                If la tasa de error de Rule en DPrune_Pos U DPrune_Neg > 50%

The

  Return RuleSet

  Else

  Añadir Rule a RuleSet

   Borrar ejemplos abiertos por Rule de D

   End if

              End while

             Return RuleSet

          End

      Fig. 1. Pseudocódigo del Algoritmo IREP

  EL proceso de poda se efectúa por medio del procedimiento PruneRule. En este procedimiento PruneRule se plantea el borrado, de manera secuencial, y empezando por el último literal introducido a la regla en su fase de crecimiento. Se van a ir borrando (podando) literales mientras se mejore el criterio v(Rule; Dprune_pos; Dprune_neg), siendo

 

         v(Rule; Dprune_pos; Dprune_neg) =  Pos – neg / Pos + neg

      Con:

Pos número de ejemplos en Dprune_pos

Neg número de ejemplos en Dprune_neg

pos número de ejemplos positivos en Dprune_pos cubiertos por la regla

neg número de ejemplos negativos en Dprune_neg cubiertos por la regla

 

 RIPPER (Repeated Incremental Pruning Produce Error Reduc-tion)

 RIPPER fue introducido por Cohen (1995) y constituye una mejora del algoritmo

IREP. Las mejoras introducidas por RIPPER pueden resumirse en tres puntos:

 

1. Métrica alternativa para la fase de poda.

 Supongamos que la regla R1 cubre 2000 ejemplos positivos en Dprune_pos y 1000 ejemplos negativos en Dprune_neg. Igualmente la regla R2 cubre 1000 ejemplos positivos en Dprune_pos y 1 ejemplo negativo en Dprune_neg. Se puede ver de manera sencilla que independientemente de los valores de Pos y Neg, el criterio de poda utilizado por IREP va a preferir R1 a R2, ya que

 

 2000 + (Neg _ 1000)  / Pos + Neg)  >  (1000 + (Neg _ 1) /  Pos + Neg)

Y sin embargo es intuitivo que la R2 es preferible a R1. Para corregir esta carencia RIPPER basa su poda en el criterio siguiente:

 

   v(Rule; Dprune_pos; Dprune_neg) =  Pos – neg / Pos + neg

 

 En tal caso tendríamos:

 

 (2000 – 1000)/3000  <    (1000 -1)/1001

 

 Y R2 se seleccionaría frente a R1.

2. Incorporación de un heurístico para determinar cuando parar el proceso de añadir reglas.

3. Posteriormente a todo el proceso visto para IREP, el algoritmo RIPPER efectúa una búsqueda local para optimizar el conjunto de reglas (rule set) de dos maneras diferentes:

 a) Reemplazando una regla Ri que forma parte del rule set {

R1;…; Ri-1; Ri; Ri+1;  …;Rk} por Ri´ , siempre y cuando el rule set correspondiente tenga un menor error en la clasificación en Dprune_pos U Dprune_neg.

 

b) Revisar una determinada regla Ri añadiendo literales para que se consiga un menor error en Dprune_pos U Dprune_neg. [2]

 

 Para más información pueden ingresar a las siguientes direcciones:

 [1] http://ccc.inaoep.mx/~emorales/Cursos/KDD03/node30.html

 [2] Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco-Euskal Herriko Unibertsitatea

 http://www.sc.ehu.es/ccwbayes/docencia/mmcc/docs/t11reglas.pdf

 

 

Los algoritmos de clasificación por vecindad se ubican dentro de las técnicas de clasificación supervisada.

Las reglas de clasificación por vecindad están basadas en la búsqueda de un conjunto de los k prototipos más cercanos al patrón a clasificar [1].

La regla de clasificación por los k vecinos más cercanos o simplemente k-NN (k nearest neighbors) establece que un nuevo caso será clasificado en la clase donde sus vecinos a quienes representa son los más cercanos.

Regla del vecino más próximo. Considerando un espacio de representación, el caso a ser clasificado tomará la clase que esté más cerca dentro de ese espacio.

Regla de los K vecinos más próximos (K-NN). El nuevo caso a ser clasificado se ubicará en la clase con más votos en el contexto de los K vecinos más cerca del conjunto de entrenamiento.

Variantes del algoritmo K-NN

  • Regla K-NN con rechazo. Se toma en cuenta un nivel fijado con anterioridad que sirve como referencia para que cuando una clase tiene un mayor número de votos que ese nivel, entonces la clase podrá ser asignada. Ese nivel puede tomar un valor entre K/M y K, K es el número de vecinos más próximos y M es el total de clases.
  • Regla K-NN por distancia media. Un caso es clasificado en una clase si es que el valor de la distancia media es el menor con respecto al de las otras clases.
  • Clasificador de la distancia mínima. Primero se selecciona un representante para cada clase. Luego, la tarea consiste en clasificar al nuevo caso en la clase cuyo vecino es el más cercano al nuevo caso.

Además, dentro de los algoritmos de clasificación supervisada existen otros como los de tipo estadístico: el análisis discriminante y el de Naive-Bayes, y según también a la superficie de separación como es el caso del Perceptrón.

El análisis discriminante es una técnica estadística multivariante cuya finalidad es analizar si existen diferencias significativas entre grupos de objetos respecto a un conjunto de variables medidas sobre los mismos para, en el caso de que existan, explicar en qué sentido se dan y proporcionar procedimientos de clasificación sistemática de nuevas observaciones de origen desconocido en uno de los grupos analizados [4].

El de Naive-Bayes es una de las técnicas más populares para clasificar texto. Bayes es un clasificador empleado para representar distribuciones conjuntas de modo que permitan calcular la probabilidad a posteriori de un conjunto de clases dado un conjunto de características obtenidas de la información, y así clasificar los datos en la clase más probable [3].

El de Perceptrón es un tipo de red neuronal con aprendizaje de manera supervisada. La redes de Neuronas son unos excelentes clasificadores y está demostrado que clasifican mejor que otros clasificadores como: árboles de decisión, vecinos próximos, etc.

Fuente:
[1] http://iie.fing.edu.uy/ense/asign/recpat/material/tema3_00-01/node6.html
[2] Aprendizaje Automático: conceptos básicos y avanzados (2006), Basilio Sierra Araujo.
[3] http://supervisadaextraccionrecuperacioninformacion.iespana.es/
[4] http://ciberconta.unizar.es/leccion/discri/inicio.html