#include #include #include char *file_pesi = "rete_pesi.bin"; char *file_immagini = "mnist/train-images.idx3-ubyte"; char *file_label = "mnist/train-labels.idx1-ubyte"; //Test dataset /* char *file_immagini = "mnist/t10k-images.idx3-ubyte"; char *file_label = "mnist/t10k-labels.idx1-ubyte"; */ #include "mnist/mnist_manager.h" // #include "cifar_10/cifar10_manager.h" //#include "xor_manager.h" // Siccome il char è un byte che rappresenta il valore tra 0 e 255. Per evitare confusioni definisco il tipo "byte" come in Java typedef unsigned char byte; double LRE = 1.414; double soglia_sigmoide = 0.5; typedef struct { double *pesi; double bias; int size; } Percettrone; typedef struct { Percettrone *percettroni; int size; } Layer; typedef struct { Layer *layers; int size; } ReteNeurale; double randomico(); double *get_double_from_bytes(Istanza); Percettrone inzializza_percettrone(int); Layer inizializza_layer(int, int); ReteNeurale inizializza_rete_neurale_deep_feed_forward(int, int, int); ReteNeurale inizializza_rete_neurale_feed_forward(int, int, int); double funzione_attivazione_percettrone(Percettrone p, double*, int); double **elabora_funzioni_attivazione(ReteNeurale*, Istanza, int); double *elabora_funzioni_attivazione_layer(Layer, double*, int); double **discesa_gradiente(ReteNeurale, double **, double, int); double *calcola_gradiente_output(Layer layer, double*, double, int); double calcola_gradiente_disceso(ReteNeurale, int, int, double **, double); void correggi_pesi_percettrone_double(Percettrone *, int, double **, double); void correggi_pesi_percettrone_byte(Percettrone *, Istanza, double, int); int previsione(double); double sigmoide(double); double derivata_sigmoide(double); double relu(double); double derivata_relu(double); void salvaReteNeurale(const char *, ReteNeurale *); ReteNeurale *caricaReteNeurale(const char *); /* ################# INIZIALIZZAZIONI E METODI UTILI ################################ */ // Questa funzione genera un valore reale random compreso nell'intervallo [-1, 1] double randomico() { // Genero numeri nell'intervallo [-1,1] return ((double)(rand() % 101 * 0.01 * 2.0) -1.0); } Percettrone inizializza_percettrone(int n_pesi) { Percettrone p; p.pesi = (double *)malloc(sizeof(double) * n_pesi); for (int i = 0; i < n_pesi; i++) { p.pesi[i] = randomico(); } p.bias = randomico(); p.size = n_pesi; return p; } Layer inizializza_layer(int n_percettroni, int n_pesi) { Layer layer; layer.percettroni = (Percettrone *)malloc(sizeof(Percettrone) * n_percettroni); for (int i = 0; i < n_percettroni; i++) { layer.percettroni[i] = inizializza_percettrone(n_pesi); } layer.size = n_percettroni; return layer; } ReteNeurale inizializza_rete_neurale_feed_forward(int numero_layers, int numero_percettroni_iniziali, int numero_input) { ReteNeurale r; r.layers = (Layer *)malloc(sizeof(Layer) * numero_layers); r.size = numero_layers; // Funzione esponenziale inversa layer 5 for (int livello = 0; livello < numero_layers; livello++) { double esponente = (double)livello / (double)numero_layers; double frazione = (double)1 / (double)numero_percettroni_iniziali; int numero_percettroni_livello = (int)((double)numero_percettroni_iniziali * pow(frazione, esponente)); if (livello == numero_layers - 1) numero_percettroni_livello = 1; // printf("esponente %f -> frazione: %f\n", esponente, frazione); printf("Layer %d -> percettroni: %d\n", livello, numero_percettroni_livello); if (livello == 0) r.layers[livello] = inizializza_layer(numero_percettroni_livello, numero_input); else r.layers[livello] = inizializza_layer(numero_percettroni_livello, r.layers[livello - 1].size); } return r; } ReteNeurale inizializza_rete_neurale_deep_feed_forward(int numero_layers, int numero_percettroni_iniziali, int numero_input) { ReteNeurale r; r.layers = (Layer *)malloc(sizeof(Layer) * numero_layers); r.size = numero_layers; for (int livello = 0; livello < numero_layers; livello++) { if (livello == 0) { printf("Layer %d -> percettroni: %d\n", livello, numero_percettroni_iniziali); r.layers[livello] = inizializza_layer(numero_percettroni_iniziali, numero_input); } else if(livello < numero_layers -1) { printf("Layer %d -> percettroni: %d\n", livello, numero_percettroni_iniziali*2); r.layers[livello] = inizializza_layer(numero_percettroni_iniziali * 2, r.layers[livello - 1].size); } else { printf("Layer %d -> percettroni: %d\n", livello, 1); r.layers[livello] = inizializza_layer(1, r.layers[livello - 1].size); } } return r; } double *get_double_from_bytes(Istanza istanza) { double *inputs = (double *)malloc(sizeof(double *) * istanza.size); for(int i = 0; i < istanza.size; i++) { inputs[i] = (double)istanza.dati[i]; } return inputs; } /* ################# FUNZIONI ATTIVAZIONE ################################ */ //******************* I PESI SONO TUTTI NAN ******************************** //Tipo 1 = relu, tipo 2 = sigmoide double funzione_attivazione_percettrone(Percettrone p, double *valori, int tipo) { double sommatoria = 0.0; for (int i = 0; i < p.size; i++) { sommatoria += (valori[i] * p.pesi[i]); //printf("valore [%f] peso[%f] ", valori[i], p.pesi[i]); } sommatoria += p.bias; //printf(" sommatoria %f\n",sommatoria); if(tipo == 1) return relu(sommatoria); return sigmoide(sommatoria); } double sigmoide(double valore) { return 1.0 / (1.0 + exp(-valore)); } double derivata_sigmoide(double valore) { return valore * (1.0 - valore); } double relu(double valore) { if(valore > 0) return valore; return 0; } double derivata_relu(double valore) { if(valore > 0) return 1; return 0; } //tipo_funzione 1: relu, 2:sigmoide double **elabora_funzioni_attivazione(ReteNeurale *rete, Istanza istanza, int tipo_funzione) { /* for(int xxx = 0; xxx < rete->size; xxx++) { for (int count = 0; count < rete->layers[xxx].size; count++) { for (int count_2 = 0; count_2 < rete->layers[xxx].percettroni[count].size; count_2++) { printf("[%d][%d]: %f\t", count, count_2, rete->layers[xxx].percettroni[count].pesi[count_2]); } printf("\n"); } } */ //Inizializzo il vettore bidimensionale che dovrò ritornare double **funzioni = (double **)malloc(sizeof(double *) * rete->size); //Il primo layer devo farlo a parte perchè prende gli input dal dataset e non dal layer precedente funzioni[0] = elabora_funzioni_attivazione_layer(rete->layers[0], get_double_from_bytes(istanza), tipo_funzione); for(int indice_layer = 1; indice_layer < rete->size - 1; indice_layer ++) { funzioni[indice_layer] = elabora_funzioni_attivazione_layer(rete->layers[indice_layer], funzioni[indice_layer-1], tipo_funzione); } funzioni[rete->size-1] = elabora_funzioni_attivazione_layer(rete->layers[rete->size-1], funzioni[rete->size-2], 2); return funzioni; } //DA NAN double *elabora_funzioni_attivazione_layer(Layer layer, double *inputs, int tipo_funzione) { double *funzioni = (double *)malloc(sizeof(double) * layer.size); for(int indice_percettrone = 0; indice_percettrone < layer.size; indice_percettrone ++) { funzioni[indice_percettrone] = funzione_attivazione_percettrone(layer.percettroni[indice_percettrone], inputs, tipo_funzione); } return funzioni; } /* ################# RETROPROPAGAZIONE ################################ */ double **discesa_gradiente(ReteNeurale rete, double **funzioni, double errore, int tipo_derivata) { double **gradienti = (double**)malloc(sizeof(double*) * rete.size); //Determino il gradiente di output a parte perchè non prende gradienti discesi dal livello superiore gradienti[rete.size-1] = calcola_gradiente_output(rete.layers[rete.size-1], funzioni[rete.size-1], errore, tipo_derivata); //Determino gli altri livelli for (int indice_layer = rete.size - 2; indice_layer >= 0; indice_layer--) { gradienti[indice_layer] = (double*)malloc(sizeof(double) * rete.layers[indice_layer].size); for (int indice_percettrone = 0; indice_percettrone < rete.layers[indice_layer].size; indice_percettrone++) { //In base al tipo di funzione scelto, avvio relu o sigmoidi double derivata_attivazione; if(tipo_derivata == 1) derivata_attivazione = derivata_relu(funzioni[indice_layer][indice_percettrone]); else derivata_attivazione = derivata_sigmoide(funzioni[indice_layer][indice_percettrone]); gradienti[indice_layer][indice_percettrone] = calcola_gradiente_disceso(rete, indice_layer + 1, indice_percettrone, gradienti, derivata_attivazione); } } return gradienti; } double *calcola_gradiente_output(Layer layer, double *funzioni, double errore, int tipo_derivata) { double *gradienti = (double*)malloc(sizeof(double) * layer.size); //Qui darò per scontato che ci sia un singolo percettrone in uscita, da aggiornare in caso di multipercettrone double derivata_funzione; if(tipo_derivata == 1) derivata_funzione = derivata_relu(funzioni[0]); else derivata_funzione = derivata_sigmoide(funzioni[0]); gradienti[0] = errore * derivata_funzione; return gradienti; } double calcola_gradiente_disceso(ReteNeurale rete, int livello, int indice_peso, double **gradienti, double derivata_attivazione) { // printf("Qui ci arrivo\n"); double sommatoria = 0.0; // printf("Layer %d: N_percettroni: %d\n", livello, rete.layers[livello].size); // Calcolo la sommatoria dei gradienti dei percettroni per i pesi for (int indice_percettrone = 0; indice_percettrone < rete.layers[livello].size; indice_percettrone++) { sommatoria += (gradienti[livello][indice_peso] * rete.layers[livello].percettroni[indice_percettrone].pesi[indice_peso]); } return sommatoria * derivata_attivazione; } /* ################# PREVISIONE E CORREZIONI ################################ */ void aggiorna_pesi(ReteNeurale *rete_neurale, double **gradienti, double **funzioni_attivazione, Istanza istanza) { // Applico la correzione dal penultimo layer andando indietro fino al secondo (il primo si fa diverso) for (int indice_layer = rete_neurale->size - 2; indice_layer >= 0; indice_layer--) { // Applico la correzione a tutti i percettroni del layer dal primo a seguire for (int indice_percettrone = 0; indice_percettrone < rete_neurale.layers[indice_layer].size; indice_percettrone++) { // Devo prendere il gradiente del percettrone e moltiplicarlo con gli input associati ai pesi if (indice_layer != 0) { correggi_pesi_percettrone_double(&rete_neurale.layers[indice_layer].percettroni[indice_percettrone], indice_layer, funzioni_attivazione, gradienti[indice_layer][indice_percettrone]); } else { correggi_pesi_percettrone_byte(&rete_neurale.layers[0].percettroni[indice_percettrone], set.istanze[indice_set], gradienti[0][indice_percettrone], indice_percettrone); } } } } int previsione(double valore) { if (valore >= soglia_sigmoide) return 1; else return 0; } void correggi_pesi_percettrone_double(Percettrone *p, int layer, double **input, double gradiente_percettrone) { for (int indice_peso = 0; indice_peso < p->size; indice_peso++) { // Determino il gradiente del peso double gradiente_peso = gradiente_percettrone * input[layer - 1][indice_peso]; // Modifico il peso p->pesi[indice_peso] += (gradiente_peso * LRE); } p->bias += (gradiente_percettrone * LRE); } void correggi_pesi_percettrone_byte(Percettrone *p, Istanza input, double gradiente_percettrone, int indice_percettrone) { for (int indice_peso = 0; indice_peso < p->size; indice_peso++) { // Determino il gradiente del peso double gradiente_peso = gradiente_percettrone * (double)input.dati[indice_peso]; // Modifico il peso Qui si impalla perchè per qualche ragione arriva size elevatissimo p->pesi[indice_peso] += (gradiente_peso * LRE); } p->bias += (gradiente_percettrone * LRE); } /* ################# IMPORT EXPORT ################################ */ void salvaReteNeurale(const char *filename, ReteNeurale *rete) { FILE *file = fopen(filename, "wb"); if (!file) { perror("Errore nell'apertura del file"); exit(EXIT_FAILURE); } // Scrivi il numero di layer fwrite(&rete->size, sizeof(int), 1, file); // Scrivi ogni layer for (int i = 0; i < rete->size; i++) { Layer *layer = &rete->layers[i]; fwrite(&layer->size, sizeof(int), 1, file); // Scrivi ogni percettrone nel layer for (int j = 0; j < layer->size; j++) { Percettrone *perc = &layer->percettroni[j]; fwrite(&perc->size, sizeof(int), 1, file); fwrite(perc->pesi, sizeof(double), perc->size, file); fwrite(&perc->bias, sizeof(double), 1, file); } } fclose(file); } ReteNeurale *caricaReteNeurale(const char *filename) { FILE *file = fopen(filename, "rb"); if (!file) { perror("Errore nell'apertura del file"); return NULL; } ReteNeurale *rete = malloc(sizeof(ReteNeurale)); if (!rete) { perror("Errore nell'allocazione della memoria"); return NULL; } // Leggi il numero di layer fread(&rete->size, sizeof(int), 1, file); rete->layers = malloc(rete->size * sizeof(Layer)); if (!rete->layers) { perror("Errore nell'allocazione della memoria"); return NULL; } // Leggi ogni layer for (int i = 0; i < rete->size; i++) { Layer *layer = &rete->layers[i]; fread(&layer->size, sizeof(int), 1, file); layer->percettroni = malloc(layer->size * sizeof(Percettrone)); if (!layer->percettroni) { perror("Errore nell'allocazione della memoria"); return NULL; } // Leggi ogni percettrone nel layer for (int j = 0; j < layer->size; j++) { Percettrone *perc = &layer->percettroni[j]; fread(&perc->size, sizeof(int), 1, file); perc->pesi = malloc(perc->size * sizeof(double)); if (!perc->pesi) { perror("Errore nell'allocazione della memoria"); return NULL; } fread(perc->pesi, sizeof(double), perc->size, file); fread(&perc->bias, sizeof(double), 1, file); } } fclose(file); return rete; } /* funzioni[indice_layer] = (double *)malloc(sizeof(double) * rete.layers[indice_layer].size); for(int indice_percettrone = 0; indice_percettrone < rete.layers[indice_layer].size; indice_percettrone ++) { //Se è il livello output in ogni caso deve fare sigmoide if(indice_layer == rete.size-1) funzioni[indice_layer][indice_percettrone] = funzione_attivazione(rete.layers[indice_layer].percettroni[indice_percettrone], funzioni[indice_layer-1], 2); else funzioni[indice_layer][indice_percettrone] = funzione_attivazione(rete.layers[indice_layer].percettroni[indice_percettrone], funzioni[indice_layer-1], tipo_funzione); } */ /* double sigmoide_byte(Percettrone, byte *, int); double sigmoide_double(Percettrone, double *, int); double *funzioni_attivazione_layer_byte(Layer, byte *); double *funzioni_attivazione_layer_double(Layer, double *); */ /* void correggi_layer_interni(ReteNeurale *, double **, double **); void correggi_layer_input(Layer *, double **, double **, byte *, int); */ /* // Questa funzione calcola tutte le funzioni di attivazione dei percettroni del layer che prende dei byte come inputs double *funzioni_attivazione_layer_byte(Layer layer, byte *inputs) { double *funzioni = (double *)malloc(sizeof(double) * layer.size); for (int i = 0; i < layer.size; i++) { funzioni[i] = sigmoide_byte(layer.percettroni[i], inputs, layer.percettroni[i].size); // printf("\tsigmoide layer input %f\n", funzioni[i]); } return funzioni; } // Questa funzione calcola tutte le funzioni di attivazione dei percettroni del layer che prende dei double come inputs (le sigmoidi del livello precedente) double *funzioni_attivazione_layer_double(Layer layer, double *inputs) { double *funzioni = (double *)malloc(sizeof(double) * layer.size); for (int i = 0; i < layer.size; i++) { funzioni[i] = sigmoide_double(layer.percettroni[i], inputs, layer.percettroni[i].size); // printf("\tsigmoide layer %d: %f\n", i, funzioni[i]); } return funzioni; } */ /* // Questa funzione prende la matrice dei gradienti e la matrice delle sigmoidi per correggere tutti i layer tranne quello di ingresso void correggi_layer_interni(ReteNeurale *rete, double **gradienti, double **sigmoidi) { for (int indice_layer = rete->size - 1; indice_layer > 0; indice_layer--) { for (int indice_percettrone = 0; indice_percettrone < rete->layers[indice_layer].size; indice_percettrone++) { // Numero percettroni for (int indice_peso = 0; indice_peso < rete->layers[indice_layer].percettroni[indice_percettrone].size; indice_peso++) { // Numero pesi gradienti[indice_layer][indice_percettrone] = gradienti[rete->size - 1][0] * (sigmoidi[indice_layer][indice_percettrone] * (1 - sigmoidi[indice_layer][indice_percettrone])); rete->layers[indice_layer].percettroni[indice_percettrone].pesi[indice_peso] += (gradienti[indice_layer][indice_percettrone] * LRE * sigmoidi[indice_layer - 1][indice_percettrone]); // rete->layers[indice_layer].percettroni[indice_percettrone].pesi[indice_peso] += (gradienti[rete->size-1][0] * LRE * sigmoidi[indice_layer-1][indice_percettrone]); } rete->layers[indice_layer].percettroni[indice_percettrone].bias += (gradienti[indice_layer][indice_percettrone] * LRE); // printf("bias: %f\n", rete->layers[indice_layer].percettroni[indice_percettrone].bias); } } } // Questa funzione prende tutti i parametri della precedente + gli input passati dal dataset per correggere il layer di ingresso void correggi_layer_input(Layer *layer, double **gradienti, double **sigmoidi, byte *inputs, int n_layers) { // L'indice del layer d'ingresso che prende byte per input int indice_layer = 0; for (int indice_percettrone = 0; indice_percettrone < layer->size; indice_percettrone++) { // Numero percettroni for (int indice_peso = 0; indice_peso < layer->percettroni->size; indice_peso++) { // Numero pesi gradienti[indice_layer][indice_percettrone] = gradienti[n_layers - 1][0] * (sigmoidi[indice_layer][indice_percettrone] * (1 - sigmoidi[indice_layer][indice_percettrone])); layer->percettroni[indice_percettrone].pesi[indice_peso] += (gradienti[indice_layer][indice_percettrone] * LRE * inputs[indice_peso]); // layer->percettroni[indice_percettrone].pesi[indice_peso] += (gradienti[n_layers-1][0] * LRE * inputs[indice_peso]); } layer->percettroni[indice_percettrone].bias += (gradienti[n_layers - 1][0] * LRE); } } */ /* // Questa funzione viene usata per il primo livello perchè ha un vettore di byte (unsigned char) in input double sigmoide_byte(Percettrone p, byte *valori, int n_input) { double sommatoria = 0.0; // printf("valori: [%d][%d]", valori[0], valori[1]); // printf("pesi: [%f][%f]", p.pesi[0], p.pesi[1]); for (int i = 0; i < n_input; i++) { sommatoria += ((double)valori[i] * p.pesi[i]); } // printf("sommatoria= %f\n", sommatoria); double funzione = sommatoria + p.bias; double potenza_e = exp(-funzione); // printf("potenza_e= %f\n", potenza_e); // formula sigmoide double risultato = 1.0 / (1.0 + potenza_e); // printf("risultato= %f\n", risultato); return risultato; } // Questa funzione viene usata per gli altri livelli dove gli input sono double, ossia i valori della sigmoide dei livelli precedenti double sigmoide_double(Percettrone p, double *valori, int n_input) { double sommatoria = 0.0; for (int i = 0; i < n_input; i++) { sommatoria += (valori[i] * p.pesi[i]); } double funzione = sommatoria + p.bias; // printf("sommatoria= %f\n", sommatoria); double potenza_e = exp(-funzione); // printf("potenza_e= %f\n", potenza_e); // formula sigmoide double risultato = 1.0 / (1.0 + potenza_e); // printf("risultato= %f\n", risultato); return risultato; } */ //void discesa_gradiente(ReteNeurale, double **, double **, int); /* void discesa_gradiente(ReteNeurale rete, double **funzioni, double **gradienti, int tipo_derivata) { for (int indice_layer = rete.size - 2; indice_layer >= 0; indice_layer--) { for (int indice_percettrone = 0; indice_percettrone < rete.layers[indice_layer].size; indice_percettrone++) { //In base al tipo di funzione scelto, avvio relu o sigmoidi double derivata_attivazione; if(tipo_derivata == 1) derivata_attivazione = derivata_relu(funzioni[indice_layer][indice_percettrone]); else derivata_attivazione = derivata_sigmoide(funzioni[indice_layer][indice_percettrone]); // Passo anche l'indice del percettrone perchè corrisponde all'indice del peso del livello sopra gradienti[indice_layer][indice_percettrone] = calcola_gradiente_disceso(rete, indice_layer + 1, indice_percettrone, gradienti, derivata_attivazione); } } } */