ıllı Internet y Tecnologías de la Información (2018)

internet, Hosting, dominios, seo, antivirus, banco de imágenes, páginas web, tiendas online

[Enciclopedia Online Gratuita] Diccionario de Internet y Tecnologías de la Información y la Comunicación (TIC):

ıllı Mapa autoorganizado wiki: info, historia y vídeos

videos internet

salud  Mapa autoorganizado 


Un mapa auto-organizado (SOM por sus iniciales en inglés) o bien un mapa auto-organizado de peculiaridades (SOFM por sus iniciales en inglés) es un género de red neuronal artificial (ANN por sus iniciales en inglés), que es entrenada utilizando aprendizaje no supervisado para generar una representación prudente del espacio de las muestras de entrada, llamado mapa. Los mapas auto-organizados son diferentes de otras redes neuronales artificiales, en el sentido que estos emplean una función de vecindad para conservar las propiedades topológicas del espacio de entrada.

Un mapa auto organizado que muestra los patrones de votación del Congreso de EUA visualizado en Synapse.

Los SOMs son útiles para visualizar vistas de baja dimensión de datos de alta dimensión, semejante a un escalado multidimensional. El modelo fue descrito por vez primera como una red neuronal artificial por el maestro finés Teuvo Kohonen, debido a lo que a veces son llamadas redes o bien mapas de Kohonen.


Al igual que la mayor parte de las redes neuronales artificiales, los SOMs operan en 2 modos: adiestramiento y mapeo. En el adiestramiento edifica el mapa utilizando ejemplos entrenantes, al tiempo que en el mapeo clasifica una nueva entrada.


Un mapa auto-organizado consiste en componentes llamadas nodos o bien neuronas. Asociado con cada neurona hay un vector de pesos, de exactamente la misma dimensión de los vectores de entrada, y una situación en el mapa. La configuración frecuente de las neuronas es un espacio regular de 2 dimensiones, en una reja exagonal o bien cuadrangular. Los mapas auto-organizados describen un mapeo de un espacio de mayor dimensión a uno de menor dimensión. El procedimiento para situar un vector del espacio de los datos en el mapa es localizar la neurona con el vector de pesos más próximo (menor distancia métrica) al vector del espacio de los datos.


Mientras que es habitual estimar este género de estructura de la red de exactamente la misma familia que las redes con retro-nutrición, donde los nodos son visualizados tal y como si estuviesen adheridos, esta clase de arquitectura es diferente en configuración y motivación.


Existen extensiones útiles que incluyen el empleo de rejas toroidales donde los ejes opuestos son conectados y utilizan un elevado número de neuronas. Se ha probado que mientras que los SOMs con un pequeño número de neuronas tienen un comportamiento afín a las K-medias, los grandes mapas auto-organizados reconfiguran los datos de forma esencialmente topológica en carácter.


Es asimismo común el empleo de matrices O bien. El valor de la matriz O bien de una neurona particularmente es la distancia promedio entre la neurona y sus vecinos más próximos. Por poner un ejemplo en una reja cuadrada se deben estimar próximos cuatro o bien ocho neuronas, conforme las vecindades de Von Neumann y Moore respectivamente.


En grandes SOMs aparecen propiedades emergentes. En mapas compuestos por cientos y cientos de neuronas es posible desarrollar operaciones de agrupamiento en el propio mapa.


El objetivo del aprendizaje en los mapas auto-organizados es provocar que diferentes unas partes de la red respondan similarmente a determinados patrones de la entrada. Esto es parcialmente motivado por el manejo en partes separadas de la corteza cerebral del cerebro humano de la información sensorial, como la visual y la auditiva.

Una ilustración del adiestramiento de un mapa auto organizado. La zona azul es la distribución de los datos de adiestramiento, y el disco blanco es el ejemplo entrenante actual para esa distribución.

Los pesos de las neuronas son iniciados con un pequeño valor azaroso o bien muestreados uniformemente de un subespacio generado por los 2 mayores vectores propios. Con la segunda opción alternativa el aprendizaje es considerablemente más veloz pues los pesos iniciales ya dan una buena aproximación de los pesos reales.


La red ha de ser alimentada con un elevado número de ejemplos entrenantes que representen, tan bien como resulte posible, la naturaleza de los vectores aguardados a lo largo del mapeo. Los ejemplos generalmente son administrados múltiples veces de forma iterativa.


El adiestramiento emplea aprendizaje competitivo. Cuando un caso entrenante es presentado a la red, su distancia euclidiana a todos y cada uno de los vectores de pesos es calculada. La neurona cuyo vector de pesos es más afín a la entrada es llamada unidad de mejor correspondencia (BMU por sus iniciales en inglés). Los pesos del BMU y las neuronas próximas al mismo en la cuadrícula del SOM son ajustados cara el vector de entrada. La magnitud de los cambios se decrementan con el tiempo y con la distancia desde el BMU. La fórmula para actualizar una neurona con vector de peso Wv(s) es


Wv(s+1)=Wv(s)+T(o bien,v,s)a(s)(D(t)-Wv)


donde s es el índice del paso, t es el índice en el conjunto entrenante, u es el índice de BMU para D(t),a(s) es el factor monótonamente decreciente de aprendizaje y D(t) es el vector de entrada; se acepta que v visite todas y cada una de las neuronas para cada valor de s y t. En dependencia de la implementación, t puede barrer el conjunto de adiestramiento de manera sistemática, puede ser elegido de manera aleatoria del conjunto de adiestramiento (bootstrap sampling), o bien a través de otro procedimiento de muestreo (como jackknife).


La función de vecindad T(o bien,v,s) depende de la distancia de cuadrículas entre la BMU (neurona u) y la neurona v. De forma simple se le da el valor 1 a todas y cada una de las neuronas suficientemente cerca a BMU y 0 a las otras, mas es más habitual escoger una función gaussiana. Con independencia de la manera funcional, la función de vecindad se contrae con el tiempo. Al comienzo, cuando la vecindad es completa, la auto-organización tiene sitio a escala global.Cuando la vecindad ha sido ceñida a solo varias neuronas, los pesos van a ir confluyendo a estimaciones locales. En ciertas implementaciones, el factor de aprendizaje, a, y la función de vecindad, T, menguan de forma constante con el aumento de s, en otras (particularmente aquellas donde t explora de manera rápida el conjunto de adiestramiento) el decrecimiento ocurre más poco a poco.


Este proceso es repetido para cada vector de entrada un número de ciclos, ?, generalmente grande. La red va asociando las neuronas de salida con conjuntos o bien patrones en el conjunto de adiestramiento. Si estos patrones son nombrados, los nombres pueden ser anexionados con las neuronas asociadas en internet de adiestramiento.


Durante el mapeo, solo va a existir una neurona ganadora, la neurona cuyo vector de pesos se halle más cerca del vector de entrada. Esto puede ser determinado de forma simple calculando la distancia euclidiana entre el vector de entrada y los vectores de pesos.


Mientras que la representación de los datos de entrada como vectores ha sido enfatizado en el artículo, se debe apreciar que cualquier tipo de objeto puede ser representado digitalmente, definiendo una medida de distancia apropiada y las operaciones precisas a fin de que resulte posible el adiestramiento utilizado para la construcción del mapa auto-organizado. Esto incluye matrices, funciones continuas, e inclusive otros mapas auto-organizados.


Hay 2 formas de interpretar los mapas auto-organizados. Debido a que en la fase de adiestramiento los pesos de toda la vecindad son movidos en exactamente la misma dirección, elementos afines tienden a estimular neuronas lindantes. Por consiguiente, SOMs forman un mapa semántico donde muestras afines son mapeadas juntas, y las distintas aparte. Esto puede ser visualizado por una matriz O bien del SOM.


La otra forma es meditar en los pesos de las neuronas como punteros al espacio de entrada. Estos forman una aproximación prudente de la distribución de las muestras de adiestramiento. Se generan más punteros a zonas de alta concentración de muestras de adiestramiento y menos donde las muestras son más escasas.


Los mapas auto-organizados se consideran una generalización no linear del análisis de componentes primordiales (PCA por sus iniciales en inglés). Esto ha sido mostrado utilizando datos geofísicos artificiales y reales, donde los SOMs ha tenido gran ventaja sobre los métodos usuales de extracción de peculiaridades como son las funciones ortogonales experimentales y el PCA.


Originalmente, los SOMs no fueron elaborados como una solución a inconvenientes de optimización. Sin embargo, ha habido múltiples intentos por alterar la definición de los SOMs para dar solución a estos inconvenientes con resultados afines.


  ELIGE TU TEMA DE INTERÉS: 


autoayuda.es   Internet y Tecnologias 

Está aquí: Inicio > [ INTERNET ] > ıllı Mapa autoorganizado wiki: info, historia y vídeos

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Ver políticas