[Enciclopedia Online Gratuita] Diccionario de Internet y Tecnologías de la Información y la Comunicación (TIC):
ıllı Perceptrón multicapa : que es, definición y significado, descargar videos y fotos.
La información contenida en esta web debe ser considerada como información general, de carácter formativo, educativo o divulgativo, y no puede ser utilizada o interpretada como consejo o diagnótico médico, psicológico o de ningún otro tipo. Es posible que algunos datos mostrados no esten actualizados. Por ello, en caso de duda lo recomentable es consultar a un experto cualificado.
- Detalles
- Categoría: INTERNET
ıllı Perceptrón multicapa : que es, definición y significado, descargar videos y fotos.
El perceptrón multicapa es una red neuronal artificial (ARN) formada por múltiples capas, de tal modo que tiene capacidad para solucionar inconvenientes que no son linealmente separables, lo que es la primordial restricción del perceptrón (asimismo llamado perceptrón simple). El perceptrón multicapa puede estar plenamente o bien de forma local conectado. En el primer caso cada salida de una neurona de la capa "i" es entrada de todas y cada una de las neuronas de la capa "i+1", al paso que en el segundo cada neurona de la capa "i" es entrada de una serie de neuronas (zona) de la capa "i+1". Las capas pueden clasificarse en 3 tipos: La propagación cara atrás (asimismo conocido como retropropagación del fallo o bien regla delta extendida), es un algoritmo usado en el adiestramiento de estas redes, por este motivo, el perceptrón multicapa asimismo es conocido como red de retropropagación (no confundir con la red de contrapropagación). En mil novecientos sesenta y nueve, Minsky y Papert, prueban que el perceptrón simple y ADALINE no puede solucionar inconvenientes no lineales (por servirnos de un ejemplo, XOR). La combinación de múltiples perceptrones simples podría solucionar algunos inconvenientes no lineales mas no existía un mecanismo automático para amoldar los pesos de la capa oculta. Rumelhart y otros autores, en mil novecientos ochenta y seis, presentan la "Regla Delta Extendida" para amoldar los pesos extendiendo los fallos cara atrás, esto es, extender los fallos cara las capas ocultas inferiores. De este modo se logra trabajar con múltiples capas y con funciones de activación no lineales. Se prueba que el perceptrón multicapa es un aproximador universal. Un perceptrón multicapa puede acercar relaciones no lineales entre los datos de entrada y salida. Esta red se ha transformado en una de las arquitecturas más usadas en el instante.? Cuando caemos en un mínimo local sin satisfacer el porcentaje de fallo tolerado se puede considerar: mudar la topología de la red (número de capas y número de neuronas), empezar el adiestramiento con unos pesos iniciales diferentes, alterar los factores de aprendizaje, alterar el conjunto de adiestramiento o bien presentar los patrones en otro orden. El perceptrón multicapa (a partir de aquí MLP, MultiLayer Perceptron) se emplea para solucionar inconvenientes de asociación de patrones, segmentación de imágenes, compresión de datos, etc. Considerese un MLP de tres capas, una de entrada, una oculta y la de salida. La capa de entrada está formada por N neuronas, la capa oculta por M (M < N) neuronas y la capa de salida tiene N neuronas como la capa de entrada. Se adiestra dicho MLP a fin de que cuando se le dé como entrada un vector de datos (x1, x2,..., xN) devuelva ese vector con M datos como salida, con esto estamos enseñando al MLP a convertir un vector de N componentes en uno de M componentes (recordemos que M < N) y a recobrar el vector original desde el vector "comprimido". Una vez que el MLP esté entrenado se procede de la próxima forma: El MLP no logrará (cuando menos generalmente) un fallo nulo a lo largo del adiestramiento, con lo que se trata de un sistema de compresión con pérdidas. Evidentemente cuanto mayor deseemos que sea el factor de compresión, más fallo se cometerá.
Características
Compresión de datos