🔻Desarrollo de un perceptrón
Nos tiene que quedar muy claro esto porque es la base.
Pasos para entrenar un perceptrón simple
Identificar las entradas: Primero, debes identificar las entradas del perceptrón, que son los valores que se utilizarán para hacer predicciones. Por ejemplo, si estás trabajando con un perceptrón para clasificar imágenes en gatos y perros, las entradas podrían ser los píxeles de la imagen.
Asignar valores aleatorios a los pesos: Cada entrada está asociada a un peso, que determina la importancia relativa de esa entrada en el proceso de toma de decisiones del perceptrón. Inicialmente, se asignan valores aleatorios a los pesos. Por ejemplo, si tienes dos entradas, podrías asignar pesos aleatorios de -0.5 y 0.3.
Resolver la sumatoria: Para cada entrada, multiplicas el valor de la entrada por su peso correspondiente y luego sumas todos los productos. Esto se conoce como la función sumatoria. Por ejemplo, si tienes dos entradas (x1 y x2) y sus pesos correspondientes (w1 y w2), la sumatoria sería: sumatoria = (x1 * w1) + (x2 * w2).
Aplicar la función de activación: La función de activación toma la sumatoria calculada en el paso anterior y produce una salida. La función de activación más común en un perceptrón simple es la función escalón o función signo, que devuelve 1 si la sumatoria es mayor o igual a cero, y 0 en caso contrario. En términos matemáticos, sería: salida = 1 si sumatoria >= 0, y salida = 0 si sumatoria < 0.
Calcular el error: Una vez obtenida la salida del perceptrón, se compara con la salida deseada o esperada. Si el perceptrón está correctamente entrenado, la salida debería ser igual a la salida deseada. Si hay una discrepancia, se calcula el error como la diferencia entre la salida deseada y la salida del perceptrón.
Para recalcular los pesos y mejorar el entrenamiento del perceptrón, se siguen los siguientes pasos adicionales:
Ajustar los pesos: El objetivo es reducir el error calculado en el paso anterior. Para lograrlo, se actualizan los pesos de cada entrada. La actualización se realiza mediante la fórmula: nuevo_peso = peso_actual + (tasa_aprendizaje * error * entrada), donde la tasa de aprendizaje es un parámetro que controla cuánto se ajustan los pesos en cada iteración.
Repetir los pasos anteriores: Se repiten los pasos 3 a 6 utilizando las nuevas asignaciones de pesos. Esto implica calcular una nueva sumatoria, aplicar la función de activación, calcular el nuevo error y ajustar los pesos nuevamente. Estos pasos se repiten hasta que el error sea cero o esté por debajo de un umbral predefinido.
Ejemplo paso a paso para ilustrar el procedimiento de entrenamiento de un perceptrón
Supongamos que tenemos un perceptrón con dos entradas (x1 y x2) y una salida deseada (y_deseada). Los pesos iniciales son w1 = -0.5 y w2 = 0.3, y la tasa de aprendizaje es 0.1.
Identificar las entradas:
x1 = 0.6
x2 = 0.8
Asignar valores aleatorios a los pesos:
w1 = -0.5
w2 = 0.3
Resolver la sumatoria:
sumatoria = (x1 * w1) + (x2 * w2)
= (0.6 * -0.5) + (0.8 * 0.3)
= -0.3 + 0.24
= -0.06
Aplicar la función de activación:
salida = 1 si sumatoria >= 0, y salida = 0 si sumatoria < 0
= 1 (ya que sumatoria es mayor o igual a 0)
Calcular el error:
error = y_deseada - salida
= y_deseada - 1
Supongamos que la salida deseada (y_deseada) es 0. Calculamos el error:
error = 0 - 1
= -1
Ajustar los pesos:
nuevo_w1 = w1 + (tasa_aprendizaje * error * x1)
= -0.5 + (0.1 * -1 * 0.6)
= -0.5 - 0.06
= -0.56
nuevo_w2 = w2 + (tasa_aprendizaje * error * x2)
= 0.3 + (0.1 * -1 * 0.8)
= 0.3 - 0.08
= 0.22
Repetir los pasos anteriores:
Ahora, volvemos al paso 3 y calculamos la nueva sumatoria utilizando los nuevos pesos:
sumatoria = (x1 * nuevo_w1) + (x2 * nuevo_w2)
= (0.6 * -0.56) + (0.8 * 0.22)
= -0.336 + 0.176
= -0.16
Aplicamos la función de activación:
salida = 1 si sumatoria >= 0, y salida = 0 si sumatoria < 0
= 0 (ya que sumatoria es menor que 0)
Calculamos el nuevo error:
error = y_deseada - salida
= 0 - 0
= 0
Como el error ahora es 0, el perceptrón está entrenado y ya no necesitamos ajustar los pesos. Podemos detener el proceso aquí.
Este ejemplo ilustra cómo el perceptrón se entrena iterativamente ajustando los pesos hasta que el error sea cero, lo que indica que ha aprendido a clasificar correctamente los datos de entrada.
Last updated