Ti aiuterà a confrontare vari corsi e trovare l'offerta formativa più conveniente.
Descrizione
Tipologia
Corso
Metodologia
Online
Inizio
Scegli data
Descrizione
La figura del ”data scientist” è un professionista che analizza e interpreta grandi quantità di dati per estrarre informazioni utili e supportare decisioni strategiche. Il suo lavoro combina competenze in statistica, matematica, programmazione e conoscenza dei business o dei settori specifici. I data scientist utilizzano strumenti avanzati, come machine learning e intelligenza artificiale, per costruire modelli predittivi e risolvere problemi complessi. La loro attività può spaziare dall'analisi dei dati aziendali per migliorare l'efficienza operativa, alla creazione di algoritmi per migliorare i prodotti o i servizi offerti da un'azienda
Sedi e date
Luogo
Inizio del corso
Online
Inizio del corso
Scegli dataIscrizioni aperte
Domande e risposte
Aggiungi la tua domanda
I nostri consulenti e altri utenti potranno risponderti
Stiamo controllando la tua domanda per verificare che sia conforme con gli standard di pubblicazione. A parte questo, abbiamo rilevato dalle tue risposte che potresti non essere in grado di immatricolarti a questa formazione. Questo potrebbe essere dovuto al titolo di studio che possiedi, al luogo in cui vivi, ecc. In ogni caso ti consigliamo di verificare contattando il centro di formazione.
Grazie mille!
Stiamo verificando la tua domanda. A breve sarà pubblicata
Preferisci essere contattato dal centro?
Opinioni
Hai seguito questo corso? Condividi la tua opinione
Successi del Centro
2023
2022
2020
Tutti i corsi devono essere aggiornati
La media delle valutazioni dev'essere superiore a 3,7
Più di 50 opinioni degli ultimi 12 mesi
6 anni del centro in Emagister.
Materie
E-learning
Reti neurali
Programmazione
Algoritmi
Reti
Programma
Modulo 1: Deep Learning e alle Reti Neurali
Cos'è il Deep Learning e come si differenzia dal Machine Learning tradizionale
Panoramica delle reti neurali: perceptron, architetture a strati
Applicazioni del Deep Learning in vari settori (immagini, testo, audio)
Modulo 2: Fondamenti delle Reti Neurali Artificiali (ANN)
Cos'è una rete neurale: neuroni, strati e attivazione
Funzione di attivazione: Sigmoid, ReLU, Tanh
Architettura di una rete neurale semplice (input, strato nascosto, output)
Modulo 3: Propagazione in Avanti (Forward Propagation)
Il processo di forward propagation: passaggio dei dati attraverso la rete
Calcolo delle uscite per ogni neurone
Funzione di attivazione nei singoli neuroni
Modulo 4: Errore e Funzioni di Perdita (Loss Function)
Cos'è una funzione di perdita e il suo ruolo nel training
Funzioni di perdita comuni: MSE (Mean Squared Error), Cross-Entropy
Come calcolare l'errore nelle reti neurali
Modulo 5: Backpropagation: Algoritmo di Apprendimento
backpropagation per l'aggiornamento dei pesi
Derivazione del gradiente: calcolo dei gradienti dell'errore
Aggiornamento dei pesi con l'algoritmo del gradiente discendente
Modulo 6: Ottimizzazione delle Reti Neurali
Cos'è l'ottimizzazione e come si applica nel deep learning
Algoritmi di ottimizzazione: Gradiente Discendente, Adam, RMSprop
Il ruolo del learning rate nell'ottimizzazione
Modulo 7: Costruzione di Reti Neurali con Keras e TensorFlow
Panoramica di Keras e TensorFlow come strumenti di Deep Learning
Creazione di una rete neurale semplice con Keras
Struttura e sintassi di base per costruire modelli di rete neurale
Modulo 8: Architetture Complesse: Reti Neurali Convoluzionali (CNN)
le reti neurali convoluzionali (CNN)
Cos'è una convoluzione: filtri e kernel
Architettura tipica di una CNN: strati convoluzionali, di pooling, di fully connected
Modulo 9: Addestramento di una CNN con Immagini
Preprocessing dei dati di immagini per l'addestramento
Esempio di implementazione di una CNN per la classificazione di immagini (MNIST, CIFAR-10)
Tecniche di augmentation dei dati per migliorare le prestazioni
Modulo 10: Reti Neurali Ricorrenti (RNN) e LSTM
Cos'è una rete neurale ricorrente (RNN) e a cosa serve
Architettura di una RNN e come gestisce le sequenze
LSTM (Long Short-Term Memory) per gestire il problema del vanishing gradient nelle RNN
Modulo 11: Addestramento di una RNN per il Trattamento di Dati Sequenziali
Preprocessing di dati temporali e sequenziali
Implementazione di una RNN con Keras per la previsione di sequenze (serie temporali, traduzione automatica)
Applicazioni di RNN: analisi del testo, predizione di stock
Modulo 12: Tecniche di Regularizzazione per Evitare l'Overfitting
Cos'è l'overfitting e come influenzare negativamente il modello
Tecniche di regularizzazione: Dropout, L1/L2 Regularization
Early stopping e altre strategie per prevenire l'overfitting
Modulo 13: Ottimizzazione Avanzata e Hyperparameter Tuning
Cos'è l'iperparametro e l'importanza della sua scelta
Tecniche di ricerca degli iperparametri: Grid Search, Random Search, Bayesiano
Ottimizzazione dell'architettura della rete e miglioramento delle prestazioni
Modulo 14: Transfer Learning: Riutilizzo di Reti Pre-addestrate
Cos'è il Transfer Learning e come funziona
Utilizzo di modelli pre-addestrati (ResNet, VGG, Inception) per risolvere nuovi problemi
Fine-tuning e adattamento delle reti pre-addestrate a nuovi task
Modulo 15: Gestione e Monitoraggio dell'Addestramento del Modello
Monitoraggio dell'addestramento con TensorBoard
Come analizzare l'andamento della funzione di perdita e dell'accuratezza
Salvataggio e caricamento dei modelli per il deploymentù