🔻Desarrollo de un perceptrón
Nos tiene que quedar muy claro esto porque es la base.
Pasos para entrenar un perceptrón simple
Ejemplo paso a paso para ilustrar el procedimiento de entrenamiento de un perceptrón
Supongamos que tenemos un perceptrón con dos entradas (x1 y x2) y una salida deseada (y_deseada). Los pesos iniciales son w1 = -0.5 y w2 = 0.3, y la tasa de aprendizaje es 0.1.
Identificar las entradas:
x1 = 0.6
x2 = 0.8
Asignar valores aleatorios a los pesos:
w1 = -0.5
w2 = 0.3
Resolver la sumatoria:
sumatoria = (x1 * w1) + (x2 * w2)
= (0.6 * -0.5) + (0.8 * 0.3)
= -0.3 + 0.24
= -0.06
Aplicar la función de activación:
salida = 1 si sumatoria >= 0, y salida = 0 si sumatoria < 0
= 1 (ya que sumatoria es mayor o igual a 0)
Calcular el error:
error = y_deseada - salida
= y_deseada - 1
Supongamos que la salida deseada (y_deseada) es 0. Calculamos el error:
error = 0 - 1
= -1
Ajustar los pesos:
nuevo_w1 = w1 + (tasa_aprendizaje * error * x1)
= -0.5 + (0.1 * -1 * 0.6)
= -0.5 - 0.06
= -0.56
nuevo_w2 = w2 + (tasa_aprendizaje * error * x2)
= 0.3 + (0.1 * -1 * 0.8)
= 0.3 - 0.08
= 0.22
Repetir los pasos anteriores:
Ahora, volvemos al paso 3 y calculamos la nueva sumatoria utilizando los nuevos pesos:
sumatoria = (x1 * nuevo_w1) + (x2 * nuevo_w2)
= (0.6 * -0.56) + (0.8 * 0.22)
= -0.336 + 0.176
= -0.16
Aplicamos la función de activación:
salida = 1 si sumatoria >= 0, y salida = 0 si sumatoria < 0
= 0 (ya que sumatoria es menor que 0)
Calculamos el nuevo error:
error = y_deseada - salida
= 0 - 0
= 0
Como el error ahora es 0, el perceptrón está entrenado y ya no necesitamos ajustar los pesos. Podemos detener el proceso aquí.
Este ejemplo ilustra cómo el perceptrón se entrena iterativamente ajustando los pesos hasta que el error sea cero, lo que indica que ha aprendido a clasificar correctamente los datos de entrada.Last updated