ıllı Internet y Tecnologías de la Información (2018)

internet, Hosting, dominios, seo, antivirus, banco de imágenes, páginas web, tiendas online

[Enciclopedia Online Gratuita] Diccionario de Internet y Tecnologías de la Información y la Comunicación (TIC):

ıllı Reducción de dimensionalidad : que es, definición y significado, descargar videos y fotos.

videos internet

salud  ıllı Reducción de dimensionalidad : que es, definición y significado, descargar videos y fotos.  


Extracción de características

La extracción de peculiaridades convierte los datos en la alta dimensión espacio para un espacio de menor dimensión. La transformación de datos puede ser lineal, como en análisis de componentes primordiales (PCA), mas asimismo hay muchas técnicas de reducción de dimensionalidad no lineal.?? Para los datos multidimensionales, tensoriales la representación puede ser empleado en la reducción de dimensionalidad a través del aprendizaje de subespacio multilineal.?


La técnica lineal primordial para la reducción de dimensionalidad, análisis de componentes primordiales, efectúa un mapeo lineal de los datos a un espacio inferior-dimensional de tal forma que la varianza de los datos en la representación de pocas dimensiones se maximiza. En la práctica, la matriz de relación de los datos se edifica y en esta matriz se calcula los autovectores . Los vectores propios que corresponden a los valores propios más grandes (los componentes primordiales) se pueden usar ahora para reconstruir una enorme fracción de la varianza de los datos originales. Por otro lado, los primeros vectores propios de manera frecuente pueden ser interpretados en términos del comportamiento físico a gran escala del sistema. El espacio original (con la dimensión de la cantidad de puntos) se ha reducido (con la pérdida de datos, mas es de aguardar que conserva la varianza más esencial) al espacio abarcado por dos vectores propios.


Análisis de componentes primordiales se puede emplear de una forma no lineal por medio del truco del kernel. La técnica resultante es capaz de edificar asignaciones no lineales que maximizan la varianza en los datos. La técnica resultante se titula kernel PCA. Otras técnicas no lineales sobresalientes incluyen aprendizaje de recolector, técnicas como Isomap, incrustadores de forma local lineales (LLE), Hesse LLE, automapeo Laplaciano, y espacio tangente local de alineación (CSALP). Estas técnicas edifican una representación de datos de pocas dimensiones usando una función de costo que conserva las propiedades locales de los datos, y se puede ver como la definición de un núcleo basado en el gráfico de Kernel PCA. Más últimamente, se han propuesto técnicas que, en vez de delimitar un núcleo fijo, intentar aprender el núcleo utilizando programación semidefinida. El ejemplo más importante de una técnica tal es despliegue de varianza máxima (MVU). La idea central de MVU es conservar precisamente todas y cada una de las distancias por pares entre los vecinos más próximos (en el espacio del producto interior), al paso que maximiza las distancias entre los puntos que no son vecinos más próximos. Una técnica de reducción de dimensionalidad que se usa en ocasiones en neurociencia es las dimensiones informativas al límite, que halla una representación de menor dimensión de un conjunto de datos de tal modo que tanto información mutua como resulte posible sobre el original los datos se conserva.


Un enfoque alternativo a la preservación distrito es mediante la minimización de una función de costo que mide las diferencias entre las distancias en los espacios de entrada y de salida. Ejemplos esenciales de semejantes técnicas incluyen: tradicional escalamiento multidimensional, que es idéntico al PCA; Isomap, que usa distancias geodésicas en el espacio de datos; mapa de difusión, que emplean distancias de difusión en el espacio de datos; incrustamiento de vecino estocástico t-distribuido (t-SNE), que reduce al mínimo la divergencia entre las distribuciones más pares de puntos; y el análisis de componentes curvilínea.


Un enfoque diferente a la reducción de dimensionalidad no lineal es a través de el empleo de autoencoders, un tipo singular de feed-forward red neuronal con una capa oculta de cuello de botella. ? La capacitación de los codificadores de profundidad se hace típicamente utilizando un pre-capacitación de capa sabia codicioso (por servirnos de un ejemplo, utilizando una pila de máquina de Boltzmann limitada) que es seguida por una etapa Ajuste fino basado en backpropagation.


Para conjuntos de datos de alta dimensión (o sea, con número de dimensiones más de diez), reducción de la dimensión se efectúa en general ya antes de la aplicación de un K-vecinos más próximos (k-NN) con la intención de eludir los efectos de la maldición de la dimensionalidad. ?


Extracción de peculiaridades y la reducción de la dimensión se puede conjuntar en un paso empleando análisis de componentes primordiales (PCA), análisis discriminante lineal (LDA), o bien análisis de la relación preceptiva (CCA) técnicas como un paso pre-procesamiento seguido por la agrupación de K-NN en vectores de peculiaridades en el espacio reducido dimensión. En aprendizaje automático este proceso de pocas dimensiones asimismo lleva por nombre incrustar?


Para conjuntos de datos altísimas dimensiones (por servirnos de un ejemplo, cuando se efectúa la busca de semejanza de secuencias de vídeo en vivo, datos de ADN o bien de alta dimensión Series de tiempo) ejecutar un veloz 'aproximada' Busca K-NN utilizando hash sensibles de localidad, "proyecciones azarosas",? "bocetos"? o bien otras técnicas de busca de semejanza de alta dimensión de la VLDB caja de herramientas podría ser la única opción viable.


  ELIGE TU TEMA DE INTERÉS: 


autoayuda.es   Internet y Tecnologias 

Está aquí: Inicio > [ INTERNET ] > ıllı Reducción de dimensionalidad : que es, definición y significado, descargar videos y fotos.

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Ver políticas