La "ley de aprendizaje" para una red dada gobierna cómo modificar estos pesos de conexión para minimizar los errores de salida durante las iteraciones más tarde de entrenamiento. Si bien hay muchas leyes de aprendizaje que se pueden aplicar a los sistemas neuronales, una de las más populares es la regla o Back-propagation método generalizado Delta. Durante cada iteración de la formación, los datos apareados presentados a la red genera un ow hacia adelante de la activación de la entrada a la capa de salida.
Entonces, si las salidas previstas por el sistema son incorrectos, un ow de información se genera hacia atrás desde la capa de salida a la capa de entrada, el ajuste de los pesos de conexión. A continuación, en la siguiente iteración formación, cuando el sistema se presenta con los mismos datos de entrada emparejados, será más preciso en su pronóstico. El tiempo necesario para llevar a cabo la capacitación puede ser considerable dependiendo de la velocidad de su ordenador, el número de días de datos (conocidos como "FACT-días"), y el número de neuronas en cada capa.
Cuando el sistema alcanza un estado estable, está listo para su análisis posterior. Puede llevar a cabo las pruebas de "caminar hacia adelante" mediante la creación de un le prueba compuesta de FACT-día que no fueron utilizados durante el entrenamiento. Dependiendo de los resultados de la prueba, es posible que tenga que rediseñar el sistema, incluyendo su arquitectura, la ley de aprendizaje, los datos de entrada, o los métodos y el alcance de pre-procesamiento. Incluso puede que tenga que cambiar la salida pronosticado que desea predecir.
A diferencia de la formación, durante las pruebas las fuerzas de conexión no están ajustados para compensar los errores. Si su sistema no puede entrenar en ciertos datos apareados, puede contener información contradictoria o ambigua. Usted debe reexaminar cada una de sus entradas de