ıllı Internet y Tecnologías de la Información (2018)

internet, Hosting, dominios, seo, antivirus, banco de imágenes, páginas web, tiendas online

[Enciclopedia Online Gratuita] Diccionario de Internet y Tecnologías de la Información y la Comunicación (TIC):

ıllı Redes neuronales convolucionales wiki: info, historia y vídeos


La información contenida en esta web debe ser considerada como información general, de carácter formativo, educativo o divulgativo, y no puede ser utilizada o interpretada como consejo o diagnótico médico, psicológico o de ningún otro tipo. Es posible que algunos datos mostrados no esten actualizados. Por ello, en caso de duda lo recomentable es consultar a un experto cualificado.


 


 

videos internet

salud  Redes neuronales convolucionales 


Los fundamentos de las redes neuronales convolucionales se fundamentan en el Neocognitron, introducido por Kunihiko Fukushima en mil novecientos ochenta. Este modelo fue después mejorado por Yann LeCun et al. en 1998 al introducir un procedimiento de aprendizaje basado en Backpropagation para poder adiestrar el sistema apropiadamente. En el año dos mil doce, fueron refinadas por Dan Ciresan et al., y fueron incorporadas en un GPU logrando de esta manera resultados increíbles.


El trabajo efectuado por Hubel y Wiesel en 1959 jugó un papel esencial en la entendimiento sobre de qué forma marcha la corteza visual, particularmente las células responsables de la selectividad de orientación y detección de bordes en los estímulos visuales en la corteza visual primaria V1. 2 géneros de células primordiales fueron identificadas acá, teniendo estas campos receptivos alargados, con lo que tienen una mejor contestación a los estímulos visuales alargados como las líneas y los bordes. Estas se llaman células simples y células complejas.


Las células simples tienen zonas excitadoras y también inhibitorias, las dos formando patrones elementales alargados en una dirección, situación y tamaño particularmente en todos y cada célula. Si un estímulo visual llega a la célula con exactamente la misma orientación y situación, de tal modo que esta se alinea de forma perfecta con los patrones creados por las zonas excitadoras y al tiempo se evita activar las zonas inhibitorias, la célula es activada y emite una señal.


Las células complejas operan de una forma afín. Como las células simples, estas tienen una orientación particular sobre la que son sensibles. No obstante, estas no tienen sensibilidad a la situación. Por esta razón, un estimulo visual precisa llegar solamente en la orientación adecuada a fin de que esta célula sea activada.


Otro punto esencial sobre las células en la corteza visual es la estructura que estas forman. Durante la jerarquía de la corteza, empezando por la zona V1 de la corteza visual, entonces siguiendo a las zonas V2, V4 y también IT, se halla que la dificultad de los estímulos ideales acrecienta poco a poco más. Al tiempo, las activaciones de las células se hacen menos sensibles a la situación y tamaño de los estímulos iniciales. Esto sucede a resultas de las células activando y extendiendo sus estímulos a otras células conectadas a esta jerarquía, eminentemente merced a la alternación entre células simples y complejas.




Las redes neuronales convolucionales consisten en múltiples capas de filtros convolucionales de una o bien pero dimensiones. Después de cada capa, generalmente se agrega una función para efectuar un mapeo causal no-lineal.


Como redes de clasificacion, al comienzo se halla la fase de extracción de peculiaridades, compuesta de neuronas convolucionales y de reducción de muestreo. Al final de la red se hallan neuronas de perceptron fáciles para efectuar la clasificación final sobre las peculiaridades extraídas. La fase de extracción de peculiaridades se semeja al proceso estimulante en las células de la corteza visual. Esta fase se compone de capas alternas de neuronas convolucionales y neuronas de reducción de muestreo. Conforme avanzan los datos durante esta fase, se reduce su dimensionalidad, siendo las neuronas en capas lejanas mucho menos sensibles a alteraciones en los datos de entrada, mas al tiempo siendo estas activadas por peculiaridades poco a poco más complejas.


Neuronas Convolucionales


En la fase de extracción de peculiaridades, las neuronas fáciles de un perceptron son sustituidas por procesadores en matriz que efectúan una operación sobre los datos de imagen 2D que pasan por ellas, en vez de un solo valor numérico. La salida de cada neurona convolucional se calcula como:


Yj=g(bj+?iKij?Yi)


Donde la salida Yj de una neurona j es una matriz que se calcula a través de la combinación lineal de las salidas Yi de las neuronas en la capa precedente cada una de ellas operadas con el núcleo de convolución Kij pertinente a esa conexión. Esta cantidad es sumada a una repercusión bj y después se pasa por una función de activación g(·) no-lineal.


El operador de convolución tiene el efecto de filtrar la imagen de entrada con un núcleo anteriormente entrenado. Esto convierte los datos de tal modo que ciertas peculiaridades (determinadas por la manera del núcleo) se vuelven más dominantes en la imagen de salida al tener estas un valor numérico más alto asignados a los pixeles que las representan. Estos núcleos tienen habilidades de procesamiento de imágenes concretas, como por servirnos de un ejemplo la detección de bordes que se puede efectuar con núcleos que destacan la gradiente en una dirección particularmente. No obstante, los núcleos que son entrenados por una red neuronal convolucional por norma general son más complejos para poder estos extraer otras peculiaridades más abstractas y no triviales.


Neuronas de Reducción de Muestreo


Las redes neuronales cuentan con determinada tolerancia a pequeñas alteraciones en los datos de entrada. Por poner un ejemplo, si 2 imágenes prácticamente idénticas (distinguidas solamente por un traslado de ciertos pixeles lateralmente) se examinan con una red neuronal, el resultado debería ser fundamentalmente exactamente el mismo. Esto se consigue, en parte, dado a la reducción de muestreo que ocurre en una red neuronal convolucional. Al reducir la resolución, exactamente las mismas peculiaridades corresponderán a un mayor campo de activación en la imagen de entrada.


Originalmente, las redes neuronales convolucionales usaban un proceso de subsampling para realizar esta operación. No obstante, estudio recientes han probado que otras operaciones, como por servirnos de un ejemplo max-pooling, son considerablemente más eficientes en resumir peculiaridades sobre una zona.Además de esto, existe patentiza que este género de operación es afín a como la corteza visual puede resumir información interiormente.


La operación de max-pooling halla el valor máximo entre una ventana de muestra y pasa este valor como resumen de peculiaridades sobre esa área. Como resultado, el tamaño de los datos se reduce por un factor igual al tamaño de la ventana de muestra sobre la que se opera.


Neuronas de Clasificación


Después de una o bien más fases de extracción de peculiaridades, los datos por último llegan a la fase de clasificación. Para entonces, los datos han sido refinados hasta una serie de peculiaridades únicas para la imagen de entrada, y es ahora la tarea de esta última fase el poder clasificar estas peculiaridades cara una etiqueta o bien otra, conforme los objetivos de adiestramiento.


Las neuronas en esta fase marchan de forma idéntica a las de un perceptron multicapas, donde la salida de cada una se calcula de esta forma:


yj=g(bj+?iwij·yi)


Donde la salida yj de una neurona j es un valor que se calcula a través de la combinación lineal de las salidas yi de las neuronas en la capa precedente cada una de ellas multiplicadas con un peso wij pertinente a esa conexión. Esta cantidad es sumada a una repercusión bj y después se pasa por una función de activación g(·) no-lineal.


Dado a la naturaleza de las convoluciones en las redes neuronales convolucionales, estas son capaces para poder aprender a clasificar todo género de datos donde estos estén distribuidos de una manera continua a lo largo del mapa de entrada, y por su parte sean estadísticamente afines en cualquier sitio del mapa de entrada. Por tal razón, son singularmente eficientes para clasificar imágenes, por poner un ejemplo para el auto-etiquetado de imágenes.


Sin embargo, las redes neuronales convolucionales asimismo pueden ser aplicadas para la clasificación de series de tiempo o bien señales de audio usando convoluciones en 1D, de esta manera para la clasificación de datos volumétricos utilizando convoluciones en 3D.


  ELIGE TU TEMA DE INTERÉS: 


autoayuda.es   Internet y Tecnologias 





Está aquí: Inicio > [ INTERNET ] > ıllı Redes neuronales convolucionales wiki: info, historia y vídeos

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Ver políticas