applicata regola nuova, continua a non andare bene nemmeno con lo xor

This commit is contained in:
2025-02-22 08:37:13 +01:00
parent 46cca564f4
commit e787843a67
4 changed files with 80 additions and 40 deletions

Binary file not shown.

View File

@@ -1,14 +1,11 @@
#include <time.h> #include <time.h>
#include "percettroni.h" #include "percettroni.h"
//#include "mnist/mnist_manager.h"
//#include "cifar_10/cifar10_manager.h"
#include "xor_manager.h"
//Scelgo quale categoria voglio identificare. nel caso dello xor -1 //Scelgo quale categoria voglio identificare. nel caso dello xor -1
#define CATEGORIA -1 #define CATEGORIA -1
#define NUM_LAYERS 2 #define NUM_LAYERS 3
#define PERCETTRONI_LAYER_0 2 #define PERCETTRONI_LAYER_0 4
#define MAX_EPOCHE 10000 #define MAX_EPOCHE 1000000
byte get_out_corretto(byte); byte get_out_corretto(byte);
void stampa_layer_indirizzo(Layer*); void stampa_layer_indirizzo(Layer*);
@@ -29,7 +26,7 @@ void main() {
ReteNeurale rete_neurale; ReteNeurale rete_neurale;
ReteNeurale *puntatore_rete = caricaReteNeurale(file_pesi); ReteNeurale *puntatore_rete = caricaReteNeurale(file_pesi);
if(puntatore_rete == NULL) { if(puntatore_rete == NULL) {
rete_neurale = init_rete_neurale(NUM_LAYERS, PERCETTRONI_LAYER_0, N_INPUTS); rete_neurale = inizializza_rete_neurale(NUM_LAYERS, PERCETTRONI_LAYER_0, N_INPUTS);
} else { } else {
rete_neurale = *puntatore_rete; rete_neurale = *puntatore_rete;
free(puntatore_rete); free(puntatore_rete);
@@ -62,10 +59,8 @@ void main() {
sigmoidi[j] = funzioni_attivazione_layer_double(rete_neurale.layers[j], sigmoidi[j-1]); sigmoidi[j] = funzioni_attivazione_layer_double(rete_neurale.layers[j], sigmoidi[j-1]);
} }
byte output_corretto = get_out_corretto(set.istanze[indice_set].classificazione); byte output_corretto = get_out_corretto(set.istanze[indice_set].classificazione);
//Se prevede male //Se prevede male
if(previsione(sigmoidi[NUM_LAYERS-1][0]) != output_corretto) { if(previsione(sigmoidi[NUM_LAYERS-1][0]) != output_corretto) {
@@ -90,9 +85,13 @@ void main() {
*/ */
double gradiente_errore = (output_corretto - sigmoidi[NUM_LAYERS-1][0]); //Derivata funzione di perdita
double gradiente_errore = -(output_corretto - sigmoidi[NUM_LAYERS-1][0]);
//Derivata funzione attivazione
double derivata_sigmoide_out = sigmoidi[NUM_LAYERS-1][0] * (1 - sigmoidi[NUM_LAYERS-1][0]); double derivata_sigmoide_out = sigmoidi[NUM_LAYERS-1][0] * (1 - sigmoidi[NUM_LAYERS-1][0]);
if (derivata_sigmoide_out == 0.0) derivata_sigmoide_out = 1;
//Gradiente del percettrone output
gradienti[NUM_LAYERS-1][0] = gradiente_errore * derivata_sigmoide_out; gradienti[NUM_LAYERS-1][0] = gradiente_errore * derivata_sigmoide_out;
//Ricorda di partire dal penultimo layer in quanto l'ultimo è già fatto //Ricorda di partire dal penultimo layer in quanto l'ultimo è già fatto
@@ -100,20 +99,38 @@ void main() {
/* A questo punto ho tutti i gradienti dei percettroni, non mi resta che trovare i gradienti dei pesi e correggerli /* A questo punto ho tutti i gradienti dei percettroni, non mi resta che trovare i gradienti dei pesi e correggerli
*/ */
//Correggo il livello output
for(int indice_peso = 0; indice_peso < rete_neurale.layers[NUM_LAYERS-1].percettroni[0].size; indice_peso ++) {
//Determino gradiente del peso
double gradiente_peso = gradienti[NUM_LAYERS-1][0] * sigmoidi[NUM_LAYERS-2][indice_peso];
rete_neurale.layers[NUM_LAYERS-1].percettroni[0].pesi[indice_peso] -= gradiente_peso * LRE;
}
rete_neurale.layers[NUM_LAYERS-1].percettroni[0].bias -= gradienti[NUM_LAYERS-1][0] * LRE;
//Applico la correzione dal penultimo layer andando indietro fino al secondo (il primo si fa diverso) //Applico la correzione dal penultimo layer andando indietro fino al secondo (il primo si fa diverso)
for(int indice_layer = NUM_LAYERS - 2; indice_layer > 0; indice_layer--) { for(int indice_layer = NUM_LAYERS - 2; indice_layer >= 0; indice_layer--) {
//Applico la correzione a tutti i percettroni del layer dal primo a seguire //Applico la correzione a tutti i percettroni del layer dal primo a seguire
for(int indice_percettrone = 0; indice_percettrone <= rete_neurale.layers[indice_layer].size; indice_percettrone++) { for(int indice_percettrone = 0; indice_percettrone < rete_neurale.layers[indice_layer].size; indice_percettrone++) {
correggi_pesi_percettrone(); //Devo prendere il gradiente del percettrone e moltiplicarlo con gli input associati ai pesi
if(indice_layer != 0) {
correggi_pesi_percettrone_double(&rete_neurale.layers[indice_layer].percettroni[indice_percettrone], indice_layer, sigmoidi, gradienti[indice_layer][indice_percettrone]);
} else {
correggi_pesi_percettrone_byte(&rete_neurale.layers[0].percettroni[indice_percettrone], set.istanze[indice_set], gradienti[0][indice_percettrone], indice_percettrone);
}
} }
} }
//gradienti[NUM_LAYERS-1][0] = (output_corretto - sigmoidi[NUM_LAYERS-1][0]); //gradienti[NUM_LAYERS-1][0] = (output_corretto - sigmoidi[NUM_LAYERS-1][0]);
errore_totale += gradienti[NUM_LAYERS-1][0]; errore_totale += gradienti[NUM_LAYERS-1][0];
correggi_layer_interni(&rete_neurale, gradienti, sigmoidi); //correggi_layer_interni(&rete_neurale, gradienti, sigmoidi);
correggi_layer_input(&rete_neurale.layers[0], gradienti, sigmoidi, set.istanze[indice_set].dati, NUM_LAYERS); //correggi_layer_input(&rete_neurale.layers[0], gradienti, sigmoidi, set.istanze[indice_set].dati, NUM_LAYERS);
} }
else else
{ {
@@ -126,9 +143,8 @@ void main() {
} }
} }
printf("Errore: %f\n", errore_totale); printf("Errore: %f\n", errore_totale / 4);
printf("\tRisposte corrette: %d\n", corrette);
//printf("\tRisposte corrette: %d\n", corrette);
if(corrette == set.size) { if(corrette == set.size) {
break; break;

View File

@@ -6,11 +6,14 @@ char *file_pesi = "rete_pesi.bin";
char *file_immagini = "mnist/t10k-images.idx3-ubyte"; char *file_immagini = "mnist/t10k-images.idx3-ubyte";
char *file_label = "mnist/t10k-labels.idx1-ubyte"; char *file_label = "mnist/t10k-labels.idx1-ubyte";
//#include "mnist/mnist_manager.h"
//#include "cifar_10/cifar10_manager.h"
#include "xor_manager.h"
// Siccome il char è un byte che rappresenta il valore tra 0 e 255. Per evitare confusioni definisco il tipo "byte" come in Java // Siccome il char è un byte che rappresenta il valore tra 0 e 255. Per evitare confusioni definisco il tipo "byte" come in Java
typedef unsigned char byte; typedef unsigned char byte;
double LRE = 0.5;
double LRE = 0.2;
double soglia_sigmoide = 0.5; double soglia_sigmoide = 0.5;
typedef struct { typedef struct {
@@ -32,8 +35,7 @@ typedef struct {
double randomico(); double randomico();
Percettrone inzializza_percettrone(int); Percettrone inzializza_percettrone(int);
//ReteNeurale inizializza_rete_neurale(int); ReteNeurale inizializza_rete_neurale(int, int, int);
ReteNeurale init_rete_neurale(int, int, int);
Layer inizializza_layer(int, int); Layer inizializza_layer(int, int);
double sigmoide_byte(Percettrone, byte*, int); double sigmoide_byte(Percettrone, byte*, int);
@@ -44,8 +46,10 @@ double *funzioni_attivazione_layer_double(Layer, double*);
void correggi_layer_interni(ReteNeurale*, double**, double**); void correggi_layer_interni(ReteNeurale*, double**, double**);
void correggi_layer_input(Layer*, double**, double**, byte*, int); void correggi_layer_input(Layer*, double**, double**, byte*, int);
double calcola_gradiente_layer(ReteNeurale, int, int, double**);
void discesa_gradiente(ReteNeurale, double**, double**); void discesa_gradiente(ReteNeurale, double**, double**);
double calcola_gradiente_disceso(ReteNeurale, int, int, double**);
void correggi_pesi_percettrone_double(Percettrone*, int, double**, double);
void correggi_pesi_percettrone_byte(Percettrone*, Istanza, double, int);
int previsione(double); int previsione(double);
@@ -74,16 +78,7 @@ Percettrone inizializza_percettrone(int n_pesi) {
return p; return p;
} }
//Questa funzione inizializza una rete neurale. Diamo il numero di layer desiderato e restituisce un ReteNeurale ReteNeurale inizializza_rete_neurale(int numero_layers, int numero_percettroni_iniziali, int numero_input) {
/* ReteNeurale inizializza_rete_neurale(int n_layers) {
ReteNeurale r;
r.layers = (Layer*)malloc(sizeof(Layer) * n_layers);
r.size = n_layers;
return r;
} */
ReteNeurale init_rete_neurale(int numero_layers, int numero_percettroni_iniziali, int numero_input) {
ReteNeurale r; ReteNeurale r;
r.layers = (Layer*)malloc(sizeof(Layer) * numero_layers); r.layers = (Layer*)malloc(sizeof(Layer) * numero_layers);
r.size = numero_layers; r.size = numero_layers;
@@ -109,7 +104,6 @@ ReteNeurale init_rete_neurale(int numero_layers, int numero_percettroni_iniziali
return r; return r;
} }
//Questa funzione serve ad inizializzare il singolo layer con il numero di percettroni che vogliamo //Questa funzione serve ad inizializzare il singolo layer con il numero di percettroni che vogliamo
//Ogni percettrone a sua volta viene automaticamente inizializzato con il numero di pesi che vogliamo e coi valori di partenza //Ogni percettrone a sua volta viene automaticamente inizializzato con il numero di pesi che vogliamo e coi valori di partenza
Layer inizializza_layer(int n_percettroni, int n_pesi) { Layer inizializza_layer(int n_percettroni, int n_pesi) {
@@ -198,6 +192,10 @@ int previsione(double valore) {
return 0; return 0;
} }
//Questa funzione prende la matrice dei gradienti e la matrice delle sigmoidi per correggere tutti i layer tranne quello di ingresso //Questa funzione prende la matrice dei gradienti e la matrice delle sigmoidi per correggere tutti i layer tranne quello di ingresso
void correggi_layer_interni(ReteNeurale *rete, double **gradienti, double **sigmoidi) { void correggi_layer_interni(ReteNeurale *rete, double **gradienti, double **sigmoidi) {
@@ -230,6 +228,10 @@ void correggi_layer_input(Layer *layer, double **gradienti, double **sigmoidi, b
} }
void discesa_gradiente(ReteNeurale rete, double **sigmoidi, double **gradienti) { void discesa_gradiente(ReteNeurale rete, double **sigmoidi, double **gradienti) {
//For che scorre i layer dal penultimo al primo QUINI SIZE -2 //For che scorre i layer dal penultimo al primo QUINI SIZE -2
for(int indice_layer = rete.size -2; indice_layer >= 0; indice_layer--) { for(int indice_layer = rete.size -2; indice_layer >= 0; indice_layer--) {
@@ -240,10 +242,10 @@ void discesa_gradiente(ReteNeurale rete, double **sigmoidi, double **gradienti)
for(int indice_percettrone = 0; indice_percettrone < rete.layers[indice_layer].size; indice_percettrone++) { for(int indice_percettrone = 0; indice_percettrone < rete.layers[indice_layer].size; indice_percettrone++) {
double derivata_attivazione = sigmoidi[indice_layer][indice_percettrone] * (1 - sigmoidi[indice_layer][indice_percettrone]); double derivata_attivazione = sigmoidi[indice_layer][indice_percettrone] * (1 - sigmoidi[indice_layer][indice_percettrone]);
//Passo anche l'indice del percettrone perchè corrisponde all'indice del peso del livello sopra
double gradiente_disceso = calcola_gradiente_layer(rete, indice_layer + 1, indice_percettrone, gradienti);
//Passo anche l'indice del percettrone perchè corrisponde all'indice del peso del livello sopra
double gradiente_disceso = calcola_gradiente_disceso(rete, indice_layer + 1, indice_percettrone, gradienti);
gradienti[indice_layer][indice_percettrone] = gradiente_disceso * derivata_attivazione; gradienti[indice_layer][indice_percettrone] = gradiente_disceso * derivata_attivazione;
} }
} }
@@ -261,6 +263,31 @@ double calcola_gradiente_disceso(ReteNeurale rete, int livello, int indice_peso,
return sommatoria; return sommatoria;
} }
void correggi_pesi_percettrone_double(Percettrone *p, int layer, double **input, double gradiente_percettrone) {
for (int indice_peso = 0; indice_peso < p->size; indice_peso++) {
//Determino il gradiente del peso
double gradiente_peso = gradiente_percettrone * input[layer - 1][indice_peso];
//Modifico il peso
p->pesi[indice_peso] -= (gradiente_peso * LRE);
}
p->bias -= (gradiente_percettrone * LRE);
}
void correggi_pesi_percettrone_byte(Percettrone *p, Istanza input, double gradiente_percettrone, int indice_percettrone) {
for (int indice_peso = 0; indice_peso < p->size; indice_peso++) {
//Determino il gradiente del peso
double gradiente_peso = gradiente_percettrone * (double)input.dati[indice_peso];
//Modifico il peso Qui si impalla perchè per qualche ragione arriva size elevatissimo
p->pesi[indice_peso] -= (gradiente_peso * LRE);
}
p->bias -= (gradiente_percettrone * LRE);
}
//Una volta finito il ciclo delle epoche viene salvato lo stato della rete neurale //Una volta finito il ciclo delle epoche viene salvato lo stato della rete neurale
void salvaReteNeurale(const char *filename, ReteNeurale *rete) { void salvaReteNeurale(const char *filename, ReteNeurale *rete) {

View File

@@ -1,3 +0,0 @@
for(int indice_percettrone = 0; indice_percettrone < PERCETTRONI_LAYER_0; indice_percettrone++) {
printf("percettrone %d -> sigmoide: %f\n", indice_percettrone, sigmoidi[0][indice_percettrone]);
}