ci sto lavorando, provare nuova discesa del gradiente
This commit is contained in:
@@ -6,8 +6,8 @@
|
||||
|
||||
//Scelgo quale categoria voglio identificare. nel caso dello xor -1
|
||||
#define CATEGORIA -1
|
||||
#define NUM_LAYERS 5
|
||||
#define PERCETTRONI_LAYER_0 256
|
||||
#define NUM_LAYERS 2
|
||||
#define PERCETTRONI_LAYER_0 2
|
||||
#define MAX_EPOCHE 10000
|
||||
|
||||
byte get_out_corretto(byte);
|
||||
@@ -40,39 +40,56 @@ void main() {
|
||||
|
||||
//ADDESTRAMENTO
|
||||
for(int i = 0; i < MAX_EPOCHE; i++) {
|
||||
|
||||
printf("Epoca %d\n", i);
|
||||
stampa_tempo(tempo_epoche, i);
|
||||
|
||||
//printf("Epoca %d\n", i);
|
||||
//stampa_tempo(tempo_epoche, i);
|
||||
int corrette = 0;
|
||||
double errore_totale = 0.0;
|
||||
|
||||
for(int indice_set = 0; indice_set < set.size; indice_set++) {
|
||||
|
||||
//sigmoidi è un array bidimensionale, la prima dimensione identifica il layer, la seconda il percettrone nel layer
|
||||
// sigmoidi[indice_layer][indice_percettrone]
|
||||
double **sigmoidi = (double **)malloc(sizeof(double*) * NUM_LAYERS);
|
||||
|
||||
//Il layer di ingresso ha bisogno di una funzione a parte perchè prende byte come input
|
||||
sigmoidi[0] = (double*)malloc(sizeof(double) * PERCETTRONI_LAYER_0);
|
||||
sigmoidi[0] = funzioni_attivazione_layer_byte(rete_neurale.layers[0], set.istanze[indice_set].dati);
|
||||
|
||||
//Calcolo le sigmoidi in tutti gli altri layer
|
||||
for(int j = 1; j < NUM_LAYERS; j++) {
|
||||
sigmoidi[j] = (double*)malloc(sizeof(double) * rete_neurale.layers[j].size);
|
||||
sigmoidi[j] = funzioni_attivazione_layer_double(rete_neurale.layers[j], sigmoidi[j-1]);
|
||||
}
|
||||
|
||||
|
||||
byte output_corretto = get_out_corretto(set.istanze[indice_set].classificazione);
|
||||
|
||||
printf("Inputs: %d %d\t", set.istanze[indice_set].dati[0], set.istanze[indice_set].dati[1]);
|
||||
printf("Previsione: %d, out corretto: %d\n", previsione(sigmoidi[NUM_LAYERS-1][0]), output_corretto);
|
||||
|
||||
//Se prevede male
|
||||
if(previsione(sigmoidi[NUM_LAYERS-1][0]) != output_corretto) {
|
||||
|
||||
//gradienti è un array bidimensionale, la prima dimensione identifica il layer, la seconda il percettrone nel layer
|
||||
//gradienti[indice_layer][indice_percettrone]
|
||||
double **gradienti = (double**)malloc(sizeof(double*) * NUM_LAYERS);
|
||||
|
||||
//Alloco la dimensione per ogni layer
|
||||
for(int indice_layer = 0; indice_layer < NUM_LAYERS; indice_layer++) {
|
||||
gradienti[indice_layer] = (double*)malloc(sizeof(double) * rete_neurale.layers[indice_layer].size);
|
||||
}
|
||||
|
||||
//Errore
|
||||
/* Gestione dell'errore
|
||||
Funzione di perdita -> errore quadratico medio: (risultato_esatto - previsione)^2
|
||||
Gradiente dell'errore rispetto all'attivazione = derivata(funzione_perdita) * derivata(sigmoide_out)
|
||||
= -(risultato_esatto - previsione) * (sigmoide_out * (1 - sigmoide_out))
|
||||
|
||||
//Per ogni percettrone sugli altri layer:
|
||||
- calcolare derivata della propria sigmoide
|
||||
- gradiente dell'errore retropropagato = peso del ne
|
||||
|
||||
*/
|
||||
gradienti[NUM_LAYERS-1][0] = (output_corretto - sigmoidi[NUM_LAYERS-1][0]);
|
||||
errore_totale += gradienti[NUM_LAYERS-1][0];
|
||||
|
||||
correggi_layer_interni(&rete_neurale, gradienti, sigmoidi);
|
||||
correggi_layer_input(&rete_neurale.layers[0], gradienti, sigmoidi, set.istanze[indice_set].dati, NUM_LAYERS);
|
||||
@@ -81,9 +98,16 @@ void main() {
|
||||
{
|
||||
corrette++;
|
||||
}
|
||||
|
||||
if(corrette == 4) {
|
||||
printf("\tConvergo all'epoca %d\n", i);
|
||||
break;
|
||||
}
|
||||
}
|
||||
|
||||
printf("Errore: %f\n", errore_totale);
|
||||
|
||||
printf("\tRisposte corrette: %d\n", corrette);
|
||||
//printf("\tRisposte corrette: %d\n", corrette);
|
||||
|
||||
if(corrette == set.size) {
|
||||
break;
|
||||
|
||||
Reference in New Issue
Block a user