ıllı Internet y Tecnologías de la Información (2018)

internet, Hosting, dominios, seo, antivirus, banco de imágenes, páginas web, tiendas online

[Enciclopedia Online Gratuita] Diccionario de Internet y Tecnologías de la Información y la Comunicación (TIC):

ıllı Red neuronal prealimentada wiki: info, historia y vídeos


La información contenida en esta web debe ser considerada como información general, de carácter formativo, educativo o divulgativo, y no puede ser utilizada o interpretada como consejo o diagnótico médico, psicológico o de ningún otro tipo. Es posible que algunos datos mostrados no esten actualizados. Por ello, en caso de duda lo recomentable es consultar a un experto cualificado.


 


 

videos internet

salud  Red neuronal prealimentada 


El tipo más fácil de red neuronal es un el perceptrón de una capa, el que consta de una sola capa de nodos de salida; las entradas están conectadas de forma directa a las salidas por medio de una serie de ponderaciones. Es precisamente por esto que puede ser considerada el tipo más fácil de red prealimentada. La suma de los productos de las ponderaciones y las entradas es calculada en todos y cada nodo y, si el valor es superior a algún umbral (típicamente 0), los neurona es disparada y toma el valor de activación (típicamente 1); al contrario, toma el valor de desactivación (típicamente -1). Las neuronas con esta clase de función de activación son asimismo llamadas neuronas artificiales o bien unidades de umbral lineal. Muchos autores emplean el término perceptrón para las redes que constan de solamente una de estas unidades. Una neurona afín ha sido descrita por Warren McCulloch y Walter Pitt en la década de mil novecientos cuarenta.


Un perceptrón puede ser creado usando cualquier valor para los estados activado y desactivado siempre que el valor del umbral se halle entre los dos extremos. La mayor parte de los perceptrones tienen salidas con valor 1 o bien -1 con un umbral de 0 y hay patentiza de que semejantes redes pueden ser entrenadas más deprisa que las redes creadas por nodos con valores de desactivación y activación diferentes.


Los perceptrones pueden ser entrenados a través de un algoritmo de aprendizaje fácil que es generalmente llamado regla delta. Esta calcula los fallos entre la salida calculada y salida de los datos de muestra y emplea ello para crear un ajuste a las ponderaciones incorporando para esto una forma de descenso de gradiente.


Perceptrones de unidad única son solo capaces de aprender patrones con separabilidad linear. En mil novecientos sesenta y nueve en una monografía conocida titulada Perceptrons, Marvin Minsky y Seymour Papert mostraron que es imposible para un perceptron de unidad única aprender una función XOR. Es de forma frecuente asumido que asimismo imaginaron, incorrectamente, que un resultado afín sería logrado con un perceptron multicapa. No obstante, esto no es cierto, puesto que los dos, Minsky y Papert, ya sabían que los perceptrones multicapa eran capaces de formar una función XOR. (Ver el artículo de perceptrón para más información.)


A pesar de que una unidad de umbral por sí misma es bastante limitada en su poder computacional, ha sido mostrado que las redes de unidades de umbral paralelas pueden acercar cualquier función continua de un intervalo sólido de los números reales al intervalo Este resultado puede ser encontrado en el artículo de Peter Auer, Harald Burgsteiner y Wolfgang Maass titulado "A learning rule for very simple universal approximators consisting of a single layer of perceptrons".




Un red neuronal multicapa puede computar una salida continua en lugar de una función escalonada. Una elección común es la renombrada función logística:

y=11+e-x

(En forma general, f(X) está en el lugar de x, donde f(X) es una función analítica con relación a las x.) Con esta elección, la red de capa única es idéntica al modelo de regresión logística, extensamente usado en modelado estadístico. La función logística es asimismo famosa como función sigmoide. Tiene una derivada continua, la que le deja ser empleada en propagación cara atrás. Esta función es asimismo usada pues su derivada es de forma fácil calculable:

y'=y(1-y)(multiplicado por dfdX, en forma general, conforme la regla de la cadena)Una red neuronal de 2 capas capaz de efectuar una operación XOR. Los números en las neuronas representan el umbral explícito de cada neurona (los que pueden ser factorizados de forma que todas y cada una de las neuronas tengan exactamente el mismo umbral, generalmente 1). Los números a los lados de las flechas representan la ponderación de las entradas. Esto red supone que si el umbral no es alcanzado, un cero (no -1) va a ser la salidá. Note que la capa inferior de las entradas no es siempre y en todo momento considerada como una capa de red neuronal real.

Esta clase de redes consta de capas múltiples de unidades computacionales, en general interconectados de una forma prealimentada. Cada neurona en una capa tiene conexiones dirigidas a las neuronas de la capa siguiente. En muchas aplicaciones las unidades de estas redes efectúan una función sigmoide como función de activación.


El teorema de aproximación universal para redes neuronales establece que cada función continua que mapea intervalos de números reales a algún intervalo de salida de números reales puede ser aproximado arbitrariamente por un perceptrón multicapa con una sola capa oculta. Este resultado es válido para una extensa gama de funciones de activación, p. ej. para funciones sigmoides.


Redes multicapa usan una pluralidad de técnicas de aprendizaje, entre las que la más popular es la de Propagación cara atrás. Acá, los valores de salida son equiparados con la contestación adecuada para computar el valor de alguna función de fallo predefinida. A través de múltiples técnicas, el fallo es entonces retroalimentado por medio de la red. Usando esta información, el algoritmo ajusta las ponderaciones de cada conexión para reducir el valor de la función de fallo en cantidades pequeñas. Tras reiterar este proceso por un número suficientemente grande de ciclos de adiestramiento, la red en general confluirá en algún estado donde el fallo de los cálculos sea pequeño. En un caso así, uno afirmaría que la red ha aprendido una función objetivo en concreto. Para ajustar las ponderaciones apropiadamente, uno aplica un procedimiento general para optimización no lineal llamado descenso de gradiente. Para esto, la derivada de la función de fallo con respetacto a las ponderaciones de la red es calculada y las últimas son cambiadas de tal modo que el fallo reduce (así yendo en picada durante la superficie de la función de fallo).Por tal razón, a propagación cara atrás solo puede ser aplicada en redes con funciones de activación diferenciables.


En general, el inconveniente de educar a una red para rendir apropiadamente, aun en muestras que no fueron empleadas como muestras de adiestramiento, es que es un tema bastante complejo que requiere técnicas auxiliares. Esto es singularmente esencial para casos donde solo números limitadísimos de muestras para adiestramiento están libres. El riesgo es que la red tenga un Sobreajuste en los datos de fentrenamiento y falle en atrapar el auténtico proceso estadístico que produce los datos. La teoría de aprendizaje computacional se enfoca en adiestrar clasificadores en una cantidad limitada de datos. En el contexto de redes neuronales un heurísticos fácil, llamado parado temprano, con frecuencia asegura que la red generalizará bien a través de ejemplos que no se hallan en el conjunto de adiestramiento.


Otros inconvenientes habituales del algoritmo de propagación cara atrás es la velocidad de convergencia y la posibilidad de concluir en un mínimo local de la función de fallo. El día de hoy existen métodos prácticos que hacen de la propagación cara atrás en perceptrones multicapa la herramienta de elección para muchas labores de aprendizaje automático.


  ELIGE TU TEMA DE INTERÉS: 


autoayuda.es   Internet y Tecnologias 





Está aquí: Inicio > [ INTERNET ] > ıllı Red neuronal prealimentada wiki: info, historia y vídeos

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Ver políticas