ıllı Internet y Tecnologías de la Información (2018)

internet, Hosting, dominios, seo, antivirus, banco de imágenes, páginas web, tiendas online

[Enciclopedia Online Gratuita] Diccionario de Internet y Tecnologías de la Información y la Comunicación (TIC):

ıllı Función de activación : que es, definición y significado, descargar videos y fotos.

videos internet

salud  ıllı Función de activación : que es, definición y significado, descargar videos y fotos.  


En redes computacionales, la Función de Activación de un nodo define la salida de un nodo dada una entrada o bien un conjunto de entradas. Podría decirse que un circuito estándar de PC se comporta como una red digital de funciones de activación al activarse como "ON" (1) o bien "OFF" (0), en dependencia de la entrada. Esto es afín al funcionamiento de un Perceptrón en una Red neuronal artificial.


En las redes neuronales inspiradas sobre la biología, la función de activación es generalmente una abstracción representando una tasa de potencial de activación gatillándose en la celda. En su forma simplificada, esta función es binaria, esto es, se activa la neurona o bien no. La función se ve como ?(vi)=U(vi)undefined, donde Uundefined es la función peldaño. En un caso así, un elevado número de neuronas han de ser utilizadas en computación alén de la separación lineal de las categorías.


Una función rampa asimismo puede ser utilizada para reflejar el aumento del potencial de activación que ocurre cuando la entrada se acrecienta. La función podría ser de la manera ?(vi)=µviundefined, donde µundefined es la pendiente. Esta función de activación es lineal, y por ende tiene exactamente los mismos inconvenientes que la función binaria. En adición, las redes neuronales construidas utilizando este modelo tienen convergencia inestable pues con el tiempo, las entradas a la neurona tienden a aumentarse sin límite, esta función no es normalizable.


Los inconvenientes citados previamente, pueden ser manejados utilizando una función de activación sigmoidal. Un modelo realístico continúa en cero hasta el momento en que una entrada es recibida, en este punto la frecuencia de activación se acrecienta de manera rápida, mas gradualmente llega a ser asíntota cuando la frecuencia es cien por ciento . Matemáticamente, esto se ve como ?(vi)=U(vi)tanh?(vi)undefined, donde la función de tangente hiperbólica puede asimismo ser cualquier función sigmoidal. Esta conducta es realísticamente reflejada en la neurona, en tanto que las neuronas no pueden físicamente activarse más veloz que una cierta tasa.


El modelo final que es utilizado en perceptrones multicapa es el modelo de activación sigmoidal en la manera de tangente hiperbólica. 2 formas de esta función son generalmente usados: ?(vi)=tanh?(vi)undefined cuyos rangos son normalizados desde -1 hasta 1, y ?(vi)=(1+exp?(-vi))-1undefined es verticalmente normalizado desde 0 a 1. El último modelo es a menudo considerado más biológicamente realístico, mas tiene contrariedades teóricas y experimentales en determinados géneros de inconvenientes computacionales.


Estructuras alternativas


Una clase singular de funciones de activación conocidas como Funciones de Base Radial (RBFs) son utilizadas en Redes de neuronas de base radial, las que son exageradamente eficaces como funciones universales de aproximación. Esas funciones de activación pueden tomar cualquier forma, mas generalmente se hallan una de estas tres:



  • Gausiana: ?(vi)=exp?(-?vi-ci?22s2)undefined
  • Multicuadráticas: ?(vi)=?vi-ci?2+a2undefined
  • Multicuadráticas Inversas: ?(vi)=(?vi-ci?2+a2)-1/2^undefined+a^undefined)^undefined

donde ciundefined es el vector representando la función central y aundefined y sundefined son factores affectando la magnitud del radio.


Máquinas de Soporte Vectorial (SVMs) pueden ciertamente emplear una clase de funciones de activación que incluyen funciones sigmoidales y Funciones de Base Radial. En un caso así, el vector de entrada es transformado para reflejar un límite de resolución hiplerplano basado en unas pocas entradas de adiestramiento llamadas vectores de soportexundefined. La función de activación para las capas ocultas de esas tramas son referidas como producto del núcleo interno, K(vi,x)=?(vi)undefined. Los vectores de soporte son representados como los centros en RBFs con el núcleo igual a la función de activación, mas toman una fórma única en el perceptrón como :?(vi)=tanh?(ß1+ß0?jvi,jxj)undefined, donde ß0undefined y ß1undefined deben satisfacer ciertas condiciones de convergencia. Esas máquinas asimismo pueden admitir funciones de polinomios de orden arbitrario donde:?(vi)=(1+?jvi,jxj)pundefined.?


  ELIGE TU TEMA DE INTERÉS: 


autoayuda.es   Internet y Tecnologias 

Está aquí: Inicio > [ INTERNET ] > ıllı Función de activación : que es, definición y significado, descargar videos y fotos.

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Ver políticas