ıllı Internet y Tecnologías de la Información (2018)

internet, Hosting, dominios, seo, antivirus, banco de imágenes, páginas web, tiendas online

[Enciclopedia Online Gratuita] Diccionario de Internet y Tecnologías de la Información y la Comunicación (TIC):

ıllı Máquinas de vectores de soporte wiki: info, historia y vídeos

videos internet

salud  Máquinas de vectores de soporte 


Las máquinas de soporte vectorial, máquinas de vectores de soporte o bien máquinas de vector soporte (Support Vector Machines, SVMs) son un conjunto de algoritmos de aprendizaje supervisado desarrollados por Vladimir Vapnik y su equipo en los laboratorios AT&T.


Estos métodos están propiamente relacionados con inconvenientes de clasificación y regresión. Dado un conjunto de ejemplos de adiestramiento (de muestras) podemos etiquetar las clases y adiestrar una SVM para edificar un modelo que pronostique la clase de una nueva muestra. De manera intuitiva, una SVM es un modelo que representa a los puntos de muestra en el espacio, apartando las clases a dos espacios lo más extensos posibles a través de un hiperplano de separación definido como el vector entre los dos puntos, de las dos clases, más próximos al que tiene por nombre vector soporte. Cuando las nuevas muestras se ponen en correspondencia con dicho modelo, en función de los espacios a los que pertenezcan, pueden ser clasificadas a una o bien la otra clase.


Más formalmente, una SVM edifica un hiperplano o bien conjunto de hiperplanos en un espacio de dimensionalidad altísima (o bien aun infinita) que puede ser empleado en inconvenientes de clasificación o bien regresión. Una buena separación entre las clases dejará una clasificación adecuada.


Dado un conjunto de puntos, subconjunto de un conjunto mayor (espacio), en el que cada uno de ellos de ellos pertenece a una de 2 posibles categorías, un algoritmo basado en SVM edifica un modelo capaz de pronosticar si un punto nuevo (cuya categoría ignoramos) pertenece a una categoría o bien a la otra.


Como en la mayor parte de los métodos de clasificación supervisada, los datos de entrada (los puntos) son vistos como un vector p-dimensional (una lista ordenada de pnúmeros).


La SVM busca un hiperplano que separe de forma inmejorable a los puntos de una clase de la de otra, que ocasionalmente han podido ser anteriormente proyectados a un espacio de dimensionalidad superior.


En ese término de "separación inmejorable" es donde radica la característica esencial de las SVM: este género de algoritmos procuran el hiperplano que tenga la máxima distancia (margen) con los puntos que estén más cerca de él mismo. De ahí que asimismo en ocasiones se les conoce a las SVM como clasificadores de margen máximo. De esta manera, los puntos del vector que son etiquetados con una categoría van a estar a un lado del hiperplano y los casos que se hallen en la otra categoría van a estar del otro lado.


Los algoritmos SVM pertenecen a la familia de los clasificadores lineales. Asimismo pueden ser considerados un caso singular de la regularización de Tikhonov.


En la literatura de los SVMs, tiene por nombre atributo a la variable predictora y característica a un atributo transformado que es utilizado para acotar el hiperplano. La elección de la representación más conveniente del cosmos estudiado, se efectúa a través de un proceso llamado selección de peculiaridades.


Al vector formado por los puntos más próximos al hiperplano se le llama vector de soporte.


Los modelos basados en SVMs están de manera estrecha relacionados con las redes neuronales. Utilizando una función kernel, resultan un procedimiento de adiestramiento alternativo para clasificadores polinomiales, funciones de base radial y perceptrón multicapa.


Ejemplo en 2–dimensiones


En el próximo ejemplo idealizado para dos-dimensiones, la representación de los datos a clasificar se efectúa en el plano x-y. El algoritmo SVM trata de hallar un hiperplano 1-dimensional (en el ejemplo que nos ocupa es una línea) que une a las variables predictoras y forma el límite que define si un factor de entrada pertenece a una categoría o bien a la otra.


Existe un número infinito de posibles hiperplanos (líneas) que efectúen la clasificación mas, ¿cuál es la mejor y de qué manera la definimos?

Hay infinitos hiperplanos posiblesH1 no aparta las clases. H2 las aparta, mas solo con un margen pequeño. H3 las aparta con el margen máximo.

La mejor solución es aquella que deje un margen máximo entre los elementos de las 2 categorías.


Se llaman vectores de soporte a los puntos que conforman las 2 líneas paralelas al hiperplano, siendo la distancia entre ellas (margen) la mayor posible.


Soft margin: Fallos de entrenamiento


Idealmente, el modelo basado en SVM debería generar un hiperplano que separe absolutamente los datos del cosmos estudiado en 2 categorías. No obstante, una separación perfecta no siempre y en todo momento es posible y, si lo es, el resultado del modelo no puede ser extendido para otros datos. Esto se conoce como sobreajuste (overfitting).


Con el fin de permitir cierta flexibilidad, los SVM manejan un factor C que controla la compensación entre fallos de adiestramiento y los márgenes recios, creando de este modo un margen blando (soft margin) que deje ciertos fallos en la clasificación al unísono que los penaliza.


La forma más simple de efectuar la separación es a través de una línea recta, un plano recto o bien un hiperplano N-dimensional.


Desafortunadamente los universos a estudiar no se acostumbran a presentar en casos idílicos de 2 dimensiones como en el ejemplo precedente, sino un algoritmo SVM debe tratar con a) más de 2 variables predictoras, b) curvas no lineales de separación, c) casos donde los conjuntos de datos no pueden ser absolutamente separados, d) clasificaciones en más de 2 categorías.


Debido a las restricciones computacionales de las máquinas de aprendizaje lineal, estas no pueden ser usadas en la mayor parte de las aplicaciones del planeta real. La representación a través de funciones Kernel ofrece una solución a este inconveniente, proyectando la información a un espacio de peculiaridades de mayor dimensión el que aumenta la capacidad computacional de la máquinas de aprendizaje lineal. Esto es, mapearemos el espacio de entradas X a un nuevo espacio de peculiaridades de mayor dimensionalidad (Hilbert):

F = x ? Xx = ? f(x) =

Tipos de funciones Kernel (Núcleo)



  • Polinomial-homogénea: K(xi, xj) = (xi·xj)n


  • Perceptron: K(xi, xj)= xi-xj


  • Función de base radial Gaussiana: separado por un hiperplano en el espacio transformado.
K(xi, xj)=exp(-(xi-xj)2/2(sigma)2)

  • Sigmoid: K(xi, xj)=tanh(xi· xj-?)

Una nueva versión de SVM para regresión fue propuesta en mil novecientos noventa y seis por Vladimir Vapnik, Harris Drucker, Chris Burges, Linda Kaufman y Alex Smola.


La idea básica de SVR consiste en efectuar un mapeo de los datos de adiestramiento x ? X, a un espacio de mayor dimensión F mediante un mapeo no lineal f: X ? F, donde podemos efectuar una regresión lineal.


  ELIGE TU TEMA DE INTERÉS: 


autoayuda.es   Internet y Tecnologias 

Está aquí: Inicio > [ INTERNET ] > ıllı Máquinas de vectores de soporte wiki: info, historia y vídeos

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Ver políticas