ıllı Internet y Tecnologías de la Información (2018)

internet, Hosting, dominios, seo, antivirus, banco de imágenes, páginas web, tiendas online

[Enciclopedia Online Gratuita] Diccionario de Internet y Tecnologías de la Información y la Comunicación (TIC):

ıllı Perceptrón multicapa : que es, definición y significado, descargar videos y fotos.

videos internet

salud  ıllı Perceptrón multicapa : que es, definición y significado, descargar videos y fotos.  


El perceptrón multicapa es una red neuronal artificial (ARN) formada por múltiples capas, de tal modo que tiene capacidad para solucionar inconvenientes que no son linealmente separables, lo que es la primordial restricción del perceptrón (asimismo llamado perceptrón simple). El perceptrón multicapa puede estar plenamente o bien de forma local conectado. En el primer caso cada salida de una neurona de la capa "i" es entrada de todas y cada una de las neuronas de la capa "i+1", al paso que en el segundo cada neurona de la capa "i" es entrada de una serie de neuronas (zona) de la capa "i+1".


Red Neuronal Multicapa



Las capas pueden clasificarse en 3 tipos:



  • Capa de entrada: Constituida por aquellas neuronas que introducen los patrones de entrada en internet. En estas neuronas no se genera procesamiento.
  • Capas ocultas: Formada por aquellas neuronas cuyas entradas proceden de capas precedentes y cuyas salidas pasan a neuronas de capas siguientes.
  • Capa de salida: Neuronas cuyos valores de salida se corresponden con las salidas de toda la red.

La propagación cara atrás (asimismo conocido como retropropagación del fallo o bien regla delta extendida), es un algoritmo usado en el adiestramiento de estas redes, por este motivo, el perceptrón multicapa asimismo es conocido como red de retropropagación (no confundir con la red de contrapropagación).


En mil novecientos sesenta y nueve, Minsky y Papert, prueban que el perceptrón simple y ADALINE no puede solucionar inconvenientes no lineales (por servirnos de un ejemplo, XOR). La combinación de múltiples perceptrones simples podría solucionar algunos inconvenientes no lineales mas no existía un mecanismo automático para amoldar los pesos de la capa oculta. Rumelhart y otros autores, en mil novecientos ochenta y seis, presentan la "Regla Delta Extendida" para amoldar los pesos extendiendo los fallos cara atrás, esto es, extender los fallos cara las capas ocultas inferiores. De este modo se logra trabajar con múltiples capas y con funciones de activación no lineales. Se prueba que el perceptrón multicapa es un aproximador universal. Un perceptrón multicapa puede acercar relaciones no lineales entre los datos de entrada y salida. Esta red se ha transformado en una de las arquitecturas más usadas en el instante.?


Características



  • Las funciones de trasferencia de los elementos de procesado (neuronas) deben ser derivables.


  • El Perceptrón Multicapa no extrapola bien, esto es, si la red se adiestra mal o bien de forma deficiente, las salidas pueden ser imprecisas.


  • La existencia de mínimos locales en la función de fallo complica sensiblemente el adiestramiento, puesto que una vez alcanzado un mínimo el adiestramiento se detiene si bien no se haya alcanzado la tasa de convergencia fijada.

Cuando caemos en un mínimo local sin satisfacer el porcentaje de fallo tolerado se puede considerar: mudar la topología de la red (número de capas y número de neuronas), empezar el adiestramiento con unos pesos iniciales diferentes, alterar los factores de aprendizaje, alterar el conjunto de adiestramiento o bien presentar los patrones en otro orden.


El perceptrón multicapa (a partir de aquí MLP, MultiLayer Perceptron) se emplea para solucionar inconvenientes de asociación de patrones, segmentación de imágenes, compresión de datos, etc.


Compresión de datos


Considerese un MLP de tres capas, una de entrada, una oculta y la de salida. La capa de entrada está formada por N neuronas, la capa oculta por M (M < N) neuronas y la capa de salida tiene N neuronas como la capa de entrada. Se adiestra dicho MLP a fin de que cuando se le dé como entrada un vector de datos (x1, x2,..., xN) devuelva ese vector con M datos como salida, con esto estamos enseñando al MLP a convertir un vector de N componentes en uno de M componentes (recordemos que M < N) y a recobrar el vector original desde el vector "comprimido".


Una vez que el MLP esté entrenado se procede de la próxima forma:



  • Compresión: Para comprimir los datos empleamos un MLP de 2 capas, la de entrada con N neuronas y la de salida con M, los pesos de estas 2 capas son los de la capa de entrada y oculta respectivamente, del MLP que adiestramos previamente.


  • Descompresión: Para descomprimir los datos empleamos un MLP de 2 capas, la de entrada con M neuronas y la de salida con N, los pesos de estas 2 capas son los de la capa oculta y la de salida respectivamente, del MLP que adiestramos previamente.

El MLP no logrará (cuando menos generalmente) un fallo nulo a lo largo del adiestramiento, con lo que se trata de un sistema de compresión con pérdidas. Evidentemente cuanto mayor deseemos que sea el factor de compresión, más fallo se cometerá.



  1. ?Perceptrón multicapa, Redes de Neuronas Artificiales, UC3M, RAI dos mil doce.


  ELIGE TU TEMA DE INTERÉS: 


autoayuda.es   Internet y Tecnologias 

Está aquí: Inicio > [ INTERNET ] > ıllı Perceptrón multicapa : que es, definición y significado, descargar videos y fotos.

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Ver políticas