ıllı Internet y Tecnologías de la Información (2018)

internet, Hosting, dominios, seo, antivirus, banco de imágenes, páginas web, tiendas online

[Enciclopedia Online Gratuita] Diccionario de Internet y Tecnologías de la Información y la Comunicación (TIC):

ıllı Perceptrón wiki: info, historia y vídeos

videos internet

salud  Perceptrón 


El modelo biológico más simple de un perceptrón es una neurona y a la inversa. O sea, el modelo matemático más simple de una neurona es un perceptrón. La neurona es una célula especializada y caracterizada por tener una cantidad indefinida de canales de entrada llamados dendritas y un canal de salida llamado axón. Las dendritas operan como sensores que recogen información de la zona donde se encuentran y la derivan cara el cuerpo de la neurona que reacciona a través de una sinapsis que manda una contestación cara el cerebro, esto en el caso de los seres vivos.


Una neurona sola y apartada carece de razón de ser. Su tarea especializada se torna valiosa en tanto que se asocia a otras neuronas, formando una red. Generalmente, el axón de una neurona entrega su información como "señal de entrada" a una dendrita de otra neurona y de este modo consecutivamente. El perceptrón que capta la señal de ahora en adelante se extiende formando una red de neuronas, sean estas biológicas o bien de sustrato semiconductor (compuertas lógicas).


El perceptrón emplea una matriz para representar las redes neuronales y es un discriminador terciario que traza su entrada x (un vectorbinario) a un solo valor de salida f(x) (un solo valor binario) mediante dicha matriz.


f(x)={1si w·x-u>00en otro caso


Donde w es un vector de pesos reales y w·x es el producto escalar (que computa una suma ponderada). u es el 'umbral', el que representa el grado de inhibición de la neurona, es un término incesante que no depende del valor que tome la entrada.


El valor de f(x) (0 o bien 1) se emplea para clasificar x como un caso positivo o bien un caso negativo, en el caso de un inconveniente de clasificación binario. El umbral puede comprenderse como una manea de compensar la función de activación, o bien una forma de fijar un nivel mínimo de actividad a la neurona para considerarse como activa. La suma ponderada de las entradas debe generar un valor mayor que u para mudar la neurona de estado 0 a 1.


En el perceptrón, existen 2 géneros de aprendizaje, el primero usa una tasa de aprendizaje al paso que el segundo no la usa. Esta tasa de aprendizaje amortigua el cambio de los valores de los pesos.


El algoritmo de aprendizaje es exactamente el mismo para todas y cada una de las neuronas, todo cuanto prosigue se aplica a una sola neurona en el aislamiento. Se definen ciertas variables primero:



  • x(j) indica el factor en la situación j en el vector de la entrada
  • w(j) el factor en la situación j en el vector de peso
  • y indica la salida de la neurona
  • d indica la salida esperada
  • a es una incesante tal que 0<a<1

Los 2 géneros de aprendizaje difieren en este paso. Para el primer género de aprendizaje, usando tasa de aprendizaje, utilizaremos la próxima regla de actualización de los pesos:

w(j)'=w(j)+a(d-y)x(j)

Para el segundo género de aprendizaje, sin usar tasa de aprendizaje, la regla de actualización de los pesos va a ser la siguiente:

w(j)'=w(j)+(d-y)x(j)

Por lo que, el aprendizaje es modelado como la actualización del vector de peso tras cada iteración, lo que solo va a tener sitio si la salida y difiere de la salida deseada d. Para estimar una neurona al interaccionar en múltiples iteraciones debemos acotar ciertas variables más:



  • xi indica el vector de entrada para la iteración i
  • wi indica el vector de peso para la iteración i
  • yi indica la salida para la iteración i
  • Dm= indica un periodo de aprendizaje de m iteraciones

En cada iteración el vector de peso es actualizado como sigue:



  • Para cada pareja ordenada (x,y) en Dm=
  • Pasar (xi,yi,wi) a la regla de actualización w(j)'=w(j)+a(d-y)x(j)

El periodo de aprendizaje Dm diríase que es separable linealmente si hay un valor positivo ? y un vector de peso w tal que:yi·(?w,xi?+u)>? para todos y cada uno de los i.


Novikoff (mil novecientos sesenta y dos) probó que el algoritmo de aprendizaje confluye tras un número finito de iteraciones si los datos son separables linealmente y el número de fallos está limitado a:(2R?)2.


Sin embargo si los datos no son separables linealmente, la línea de algoritmo precedente no se asegura que confluya.


Considere las funciones AND y OR. Estas funciones son linealmente separables y en consecuencia pueden ser aprendidas por un perceptrón.


La función XOR no puede ser aprendida por un solo perceptrón pues requiere cuando menos de 2 líneas para separar las clases (0 y 1). Debe emplearse por lo menos una capa auxiliar de perceptrones para permitir su aprendizaje.


Un perceptrón aprende a efectuar la función binaria NAND con entradas x1 y x2.Entradas: x0, x1, x2, donde x0 se sostiene incesante en 1.


Umbral (t): 0.5


Bias (b): 0


Tasa de aprendizaje (r): 0.1


Conjunto de adiestramiento, consistente en 4 muestras:


En lo que prosigue, los pesos finales de una iteración se transforman en los pesos iniciales de la próxima. Cada ciclo sobre todas y cada una de las muestras en el conjunto de adiestramiento está marcado con líneas gruesas.

EntradaPesos inicialesSalidaErrorCorrecciónPesos finalesValores de sensorSalida deseadaSensorSumaRedx0x1x2zw0w1w2c0c1c2snedw0w1w2x0*w0x1*w1x2*w2c0+c1+c2if s>t then 1, else 0z-nr*e?(x0*d)?(x1*d)?(x2*d)1001000000001+0.10.10010110.1000.1000.101+0.10.200.111010.200.10.2000.201+0.10.30.10.111100.30.10.10.30.10.10.50000.30.10.110010.30.10.10.3000.301+0.10.40.10.110110.40.10.10.400.10.501+0.10.50.10.211010.50.10.20.50.100.61000.50.10.211100.50.10.20.50.10.20.81-1-0.10.400.110010.400.10.4000.401+0.10.500.110110.500.10.500.10.61000.500.111010.500.10.5000.501+0.10.60.10.111100.60.10.10.60.10.10.81-1-0.10.50010010.5000.5000.501+0.10.60010110.6000.6000.61000.60011010.6000.6000.61000.60011100.6000.6000.61-1-0.10.5-0.1-0.110010.5-0.1-0.10.5000.501+0.10.6-0.1-0.110110.6-0.1-0.10.60-0.10.501+0.10.7-0.1011010.7-0.100.7-0.100.61000.7-0.1011100.7-0.100.7-0.100.61-1-0.10.6-0.2-0.110010.6-0.2-0.10.6000.61000.6-0.2-0.110110.6-0.2-0.10.60-0.10.501+0.10.7-0.2011010.7-0.200.7-0.200.501+0.10.8-0.1011100.8-0.100.8-0.100.71-1-0.10.7-0.2-0.110010.7-0.2-0.10.7000.71000.7-0.2-0.110110.7-0.2-0.10.70-0.10.61000.7-0.2-0.111010.7-0.2-0.10.7-0.200.501+0.10.8-0.1-0.111100.8-0.1-0.10.8-0.1-0.10.61-1-0.10.7-0.2-0.210010.7-0.2-0.20.7000.71000.7-0.2-0.210110.7-0.2-0.20.70-0.20.501+0.10.8-0.2-0.111010.8-0.2-0.10.8-0.200.61000.8-0.2-0.111100.8-0.2-0.10.8-0.2-0.10.50000.8-0.2-0.110010.8-0.2-0.10.8000.81000.8-0.2-0.110110.8-0.2-0.10.80-0.10.71000.8-0.2-0.1

Este ejemplo se puede incorporar en Python con el próximo código.

umbral=0.5tasa_de_aprendizaje=0.1pesos=onjunto_de_entrenamiento=efproducto_punto(valores,pesos):returnsum(valor*pesoforvalor,pesoinzip(valores,pesos))whileTrue:print('-'*60)contador_de_errores=0forvector_de_entrada,salida_deseadainconjunto_de_entrenamiento:print(pesos)resultado=producto_punto(vector_de_entrada,pesos)>umbralerror=salida_deseada-resultadoiferror!=0:contador_de_errores+=1forindice,valorinenumerate(vector_de_entrada):pesos=tasa_de_aprendizaje*error*valorifcontador_de_errores==0:break


  ELIGE TU TEMA DE INTERÉS: 


autoayuda.es   Internet y Tecnologias 

Está aquí: Inicio > [ INTERNET ] > ıllı Perceptrón wiki: info, historia y vídeos

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Ver políticas