ıllı Internet y Tecnologías de la Información (2018)

internet, Hosting, dominios, seo, antivirus, banco de imágenes, páginas web, tiendas online

[Enciclopedia Online Gratuita] Diccionario de Internet y Tecnologías de la Información y la Comunicación (TIC):

ıllı Boosting wiki: info, historia y vídeos

videos internet

salud  Boosting 


Boosting es un meta-algoritmo de aprendizaje automático que reduce el corte y varianza en un contexto de aprendizaje supervisado. Boosting está basado en el cuestionamiento planteado por Kearns y Valiant (mil novecientos ochenta y ocho, mil novecientos ochenta y nueve): ¿Puede un conjunto de clasificadores enclenques crear un clasificador robusto? Un clasificador enclenque está definido para ser un clasificador el que está solo endeblemente relacionado con la clasificación adecuada (exactamente el mismo clasifica mejor que un un clasificador azaroso). En contraste, un clasificador robusto es un clasificador que tiene un mejor desempeño que el de un clasificador enclenque, puesto que sus clasificaciones se acercan más a las auténticas clases.


En mil novecientos noventa Robert Schapire responde afirmativamente al cuestionamiento de Kearns y Valiant en un artículo, dicha contestación tuvo repercusiones significativas en el aprendizaje automático y la estadística, esta potente repercusión llevó al desarrollo del boosting.


Cuando fue introducido por vez primera, el boosting refería sencillamente al inconveniente de transformar un clasificador enclenque en uno robusto. «Informalmente, el inconveniente pregunta si un algoritmo de aprendizaje eficiente que genera una hipótesis cuyo desempeño es solo levemente mejor que azaroso adivinando implica la existencia de un algoritmo eficiente que genera una hipótesis de precisión arbitraria . Los algoritmos que alcanzan a generar dichas hipótesis prontofueron llamados boosting.


El boosting consiste en conjuntar los resultados de múltiples clasificadores enclenques para conseguir un clasificador robusto. Cuando se agregan estos clasificadores enclenques, se lo hace de forma que estos tengan diferente peso dependiendo de la precisión de sus predicciones. Después de que se agrega un clasificador enclenque, los datos cambian su estructura de pesos: los casos que son mal clasificados ganan peso y los que son clasificados adecuadamente pierden peso. De este modo, los clasificadores enclenques se centran de mayor forma en los casos que fueron mal clasificados por los clasificadores enclenques.


Hay muchos algoritmos de boosting.Los algoritmos originales, propuestos por Robert Schapire y Yoav Freund, no fue adaptiva y no podría tomar ventaja llena de los clasificadores enclenques. No obstante, Schapire y Freund entonces desarrollaron AdaBoost, un algoritmo adaptativo que ganó el reputado Premio Gödel.


AdaBoost es el algoritmo más popular y es tal vez el más esencial históricamente en tanto que fue la primera formulación de un algoritmo que pudo aprender de desde los clasificadores enclenques . Incluso de este modo, existen muchos algoritmos más recientes como LPBoost, TotalBoost, BrownBoost, xgboost, MadaBoost, LogitBoost que efectúan exactamente la misma labor. Muchos algoritmos de boosting encajan en el marco de AnyBoost, el que muestra que los algoritmos de boosting actúan a través del descenso del gradiente en el espacio funcional, usando una función de costo convexa.


Dada una cantidad de imágenes que poseen múltiples objetos, un clasificador puede aprender de ellos y de esta manera clasificar de manera automática los objetos en imágenes futuras. Los clasificadores enclenques son construidos desde alguna característica del objeto que tiende a ser endeblemente clasificado en el desempeño de los clasificadores. Usar boosting para clasificar el objeto es una forma de conjuntar los clasificadores enclenques de forma tal de acrecentar la capacidad global de clasificación.


El Inconveniente de la clasificación del objeto


La clasificación de objetos es una labor propia de la visión artificial que implica determinar si una imagen contiene algún género de objeto específado. La idea está de manera estrecha relacionada con reconocimiento, identificación, y detección. La clasificación de objetos desde su apariencia, típicamente contiene la extracción de peculiaridades del mismo, que son aprendidas por un clasificador, que por su parte aprende toda vez que son añadidos nuevos casos. Existen muchas formas de representar una categoría de objetos, p. ej. a través del análisis de forma, modelos de bolsa de palabras, o bien gráficos locales como CRIBAR, etcétera Ejemplos de clasificadores supervisados son el Naive Bayes, SVM, redes neuronales, etcétera Incluso de este modo, diferentes estudios han mostrado que los modelos de objeto y sus localizaciones en las imágenes pueden ser descubiertas asimismo a través de métodos de aprendizaje no supervisado.


Status quo para la clasificación de objetos.


El reconocimiento de categorías de objeto en imágenes es un inconveniente desafiante en la visión artificial, en especial en qué momento el número de categorías es grande. Esto es debido a la alta variabilidad intraclase y a la necesidad de generalizaciones por medio de las alteraciones de los objetos en una determinada categoría. Los objetos dentro una categoría puede ser bastante diferentes entre sí. Aun exactamente el mismo objeto puede parecer diferente bajo distintos puntos de vista, escalas, y también iluminación. Los humanos son capaces de reconocer miles y miles de géneros de objetos, al paso que la mayor parte de los sistemas de reconocimiento de objetos están entrenados para reconocer solo varios, p. ej., cara humana, turismo, objetos fáciles, etc. La busca ha sido muy activa tratando más categorías y habilitando sumes incrementales de categorías nuevas, y pese a que el inconveniente general no se ha resuelto, múltiples detectores multi-categoría de objeto (número de categorías alrededor veinte) para escenas agrupadas han sido desarrollados.


Boosting para clasificación binaria


Utilizamos AdaBoost para detección de cara como ejemplo de clasificación binaria. Las 2 categorías son caras frente a fondo. El algoritmo general es como sigue:



  1. Forma un conjunto grande de peculiaridades sencillas
  2. Inicializa pesos para adiestrar imágenes
  3. Para T iteraciones?Normalizar los pesosPara peculiaridades libres del conjunto, se adiestra un clasificador usando solo una característica y se valora el fallo de formaciónEscoger el classifier con el fallo más bajoActualización los pesos de las imágenes de formación: aumenta el peso si el clasificador clasifica de forma errada el obeto, reduce si lo hace correctamente
  4. Forma clasificador final robusto como la combinación lineal de los T clasificadores.

Después de aplicar boosting, un clasificador constuido desde doscientos peculiaridades puede cosechar un índice de detección del noventa y cinco por ciento bajo un índice de falso positivo del 10-5.


Otra aplicación del boosting para la clasificación binaria es un sistema qué advierte viandantes usando patrones de movimiento y aspecto. Este trabajo es el primer en conjuntar las dos informaciones, la de movimiento y también información de aspecto como peculiaridades para advertir una persona caminando. Exactamente la misma tiene un enfoque afín al de la detección de semblantes mostrada en el trabajo de Viola y Jones.


Boosting para clasificación multi-clase


Comparado con clasificación binaria, la clasificación multi-clase busca peculiaridades comunes que pueden ser compartidas por las categorías al tiempo. A lo largo del aprendizaje, los detectores de cada categoría pueden ser entrenados de forma conjunta. Equiparado con el adiestramiento separado por categorías, este generaliza mejor, precisa menos datos de adiestramiento, y requiere un número menor de peculiaridades para lograr exactamente el mismo desempeño.


La estructura primordial del algoritmo es afín al caso binario. Lo qué es diferente es que es preciso acotar de antemano una medida del fallo conjunto. A lo largo de cada iteración el algoritmo elige un clasificador de una sola característica (donde son más deseables las peculiaridades que pueden ser compartidas por más categorías). Esto puede ser hecho transformando la clasificación multiclase en una binaria (un conjunto de categorías contra el resto), o bien introduciendo una penalización del fallo de las categorías que no tienen la característica del clasificador.


En dos mil ocho Phillip Long (en Google) y Rocco A. Servedio (Universidad de Columbia) publican un artículo en la veinticinco.ª Conferencia Internaciona de aprendizaje automático que sugiere que muchos de estos algoritmos son seguramente deficientes. Concluyen que «boosters potencialmente convexos no pueden resistir el estruendos de la clasificación aleatoria», por este motivo la aplicabilidad de semejantes algoritmos para datos del planeta real (por consiguiente estruendosos) es controvertible. El artículo muestra que si cualquier fracción del dato de capacitación es mal clasificado, el algoritmo de boosting halla exageradamente bastante difícil de clasificar adecuadamente los datos, y no genera resultados con una precisión mayor a 1/2. Este resultado no aplica a los boosters basados en programas ramificados mas sí aplica a AdaBoost, LogitBoost, y otros.


  ELIGE TU TEMA DE INTERÉS: 


autoayuda.es   Internet y Tecnologias 

Está aquí: Inicio > [ INTERNET ] > ıllı Boosting wiki: info, historia y vídeos

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Ver políticas