¿Cómo se entrena un perceptrón?
En resumen, el perceptrón aprende de manera iterativa
☝☝☝ ¿Qué es un perceptrón? Lee aquí
Ejemplo
Caso 1: Entrada A (0), Entrada B (0) →
Salida 0
1.
Se toman 2
entradas x1, x2, el tercer parámetro bias, siempre tomara
el valor 1.
2.
Se generan los
pesos aleatorios w1, w2 en el rango [-1,1],
w1=0.3, w2=0.7, y wb=-0.5 (peso para el valor
del bias)
3.
Se realiza la suma
ponderada de las entradas por los pesos:
suma = ((0X0.3)+(0X0.7)) + (1X-0.5)
suma = -0.5
4. Función de activación:
1 si suma >= 0
0 si suma <= 0
en este caso se
obtiene una suma de 0.5, de acuerdo a la función de activación, la salida es 0
5. Salida: Obtuvimos
una salida 0 y nuestra salida esperada es 0. Esta condición se cumple, entonces
pasamos con los valores de las siguientes entradas.
☝ ☝☝ ¿Qué es bias? Lee aquí
Caso 2: Entrada A (0), Entrada B (1) → Salida 0
1. Se toman 2 entradas x1, x2, el tercer parámetro bias, siempre tomara el valor 1.
2. Se generan los pesos aleatorios w1, w2 en el rango [-1,1],
w1=0.5, w2=0.1, y wb= 0.9 (peso para el valor del bias)
3. Se realiza la suma ponderada de las entradas por los pesos:
suma = ((0X0.5)+(1X0.1)) + (1X0.9)
suma = 1
4. Función de activación:
1 si suma > 0
0 si suma < 0
en este caso se obtiene una suma de 1, de acuerdo a la función de activación, la salida es 1
5. Salida: Obtuvimos una salida 1 y nuestra salida esperada es 0. Esta condición no se cumple, entonces regresamos al paso 2 y repetimos el proceso.
Regresamos al paso 2...
2. Se generan los pesos aleatorios w1, w2 en el rango [-1,1],
w1=0.1, w2=-0.9, y wb= 0.5 (peso para el valor del bias)
3. Se realiza la suma ponderada de las entradas por los pesos:
suma = ((0X0.1)+(1X-0.9)) + (1X0.5)
suma = -0.4
4. Función de activación:
1 si suma >= 0
0 si suma <= 0
en este caso se obtiene una suma de -0.4, de acuerdo a la función de activación, la salida es 0
5. Salida: Obtuvimos una salida 0 y nuestra salida esperada es 0. Esta condición se cumple, entonces pasamos con los valores de las siguientes entradas.
Caso 3: Entrada A (1), Entrada B (0) → Salida 0
1. Se toman 2 entradas x1, x2, el tercer parámetro bias, siempre tomara el valor 1.
2. Se generan los pesos aleatorios w1, w2 en el rango [-1,1],
w1=0.3, w2=0.7, y wb=-0.5 (peso para el valor del bias)
3. Se realiza la suma ponderada de las entradas por los pesos:
suma = ((0X0.3)+(0X0.7)) + (1X-0.5)
suma = -0.5
4. Función de activación:
1 si suma >= 0
0 si suma <= 0
en este caso se obtiene una suma de 0.5, de acuerdo a la función de activación, la salida es 0
5. Salida: Obtuvimos una salida 0 y nuestra salida esperada es 0. Esta condición se cumple, entonces pasamos con los valores de las siguientes entradas.
Caso 4: Entrada A (1), Entrada B (1) → Salida 1
1. Se toman 2 entradas x1, x2, el tercer parámetro bias, siempre tomara el valor 1.
2. Se generan los pesos aleatorios w1, w2 en el rango [-1,1],
w1=0.5, w2=0.1, y wb= 0.9 (peso para el valor del bias)
3. Se realiza la suma ponderada de las entradas por los pesos:
suma = ((0X0.5)+(1X0.1)) + (1X0.9)
suma = 1
4. Función de activación:
1 si suma >= 0
0 si suma <= 0
en este caso se obtiene una suma de 1, de acuerdo a la función de activación, la salida es 1
5. Salida: Obtuvimos una salida 1 y nuestra salida esperada es 1. Esta condición se cumple.
Como se puede ver, el perceptrón ha aprendido la función lógica AND correctamente. Para cualquier combinación de entradas, el perceptrón produce la salida correcta.
En este ejemplo, hemos usado un conjunto de datos de entrenamiento muy simple. En la práctica, los conjuntos de datos de entrenamiento suelen ser mucho más grandes y complejos. Además, los perceptrones suelen combinarse en redes neuronales para aprender funciones más complejas.

Comentarios
Publicar un comentario