Existen dos categorías de algoritmos de aprendizaje: el Descenso por gradiente, y técnicas de entrenamiento de segundo orden (Gradiente Conjugado, Levenberg-Marquardt -LM).

Todos los algoritmos parten de una condición inicial x(0) y luego se modifican por etapas de acuerdo con:

x(k+1) = \alpha * p(k)

donde p(k) representa una dirección de búsqueda y el escalar positivo a es la tasa de aprendizaje, que determina la longitud del paso.

El entrenamiento finaliza cuando una de las siguientes condiciones se presenta:

  1. Cuando se ha alcanzado la cantidad máxima de iteraciones.
  2. Cuando se ha alcanzado el error final deseado.
  3. La ejecución del gradiente alcanza un valor por debajo del mínimo gradiente.

Hay que recordar que la función de activación de cada neurona es la función sigmoidal.

funcion_sigmoidea


The information related to this post for sale for US $ 10.00. You can make payments through PayPal account: jorgemirez2002@gmail.com or send an e-mail to receive PayPal invoice and make your payment quickly and easily. Tell us (through e-mail) the name of the input or inputs that interests you. // La información relacionada con este post en venta por US $ 10.00. Usted puede hacer pagos a través de cuenta PayPal: jorgemirez2002@gmail.com o enviar un e-mail para recibir la factura de PayPal y hacer su pago de forma rápida y sencilla. Díganos (por medio de email) el nombre de la entrada o entradas que le interese.




    Responder

    Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

    Logo de WordPress.com

    Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

    Imagen de Twitter

    Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

    Foto de Facebook

    Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

    Google+ photo

    Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

    Conectando a %s



A %d blogueros les gusta esto: