Introduzione Alle Tecniche Di Calcolo Parallelo E Distribuito
Corso
A Segrate
Hai bisogno di un coach per la formazione?
Ti aiuterà a confrontare vari corsi e trovare l'offerta formativa più conveniente.
Descrizione
-
Tipologia
Corso
-
Luogo
Segrate
-
Durata
4 Giorni
Obiettivo del corso: Il corso mira a trasmettere nozioni non effimere, ossia non legate a particolari tipi di macchine, di buona programmazione parallela. Vengono spiegate le funzionalità dei due strumenti attualmente più utilizzati per il calcolo parallelo scientifico, la libreria MPI per il calcolo distribuito e la libreria OpenMP per il calcolo parallelo a memoria condivisa. Non sono comunque trascurate altre modalità di programmazione parallela, per vari motivi meno diffuse, ma comunque di notevole importanza ed utilità in ambiti opportuni e per specifiche problematiche. Rivolto a: ll corso dedicato alle tecniche di calcolo ad alte prestazioni si rivolge a programmatori esperti che vogliano familiarizzarsi con le problematiche del calcolo non sequenziale, ovvero intendano sfruttare al massimo livello le capacità di calcolo di elaboratori a più unità di calcolo. Le tecniche illustrate saranno pertanto sfruttabili per la programmazione efficiente di un’ampia varietà di macchine, dai moderni processori multi-core, motore dei più diffusi elaboratori personali, fino alle più veloci e complesse macchine per il calcolo distribuito massicciamente parallelo.
Sedi e date
Luogo
Inizio del corso
Inizio del corso
Profilo del corso
Buone conoscenze di almeno un linguaggio procedurale di alto livello, in particolare Fortran o C/C++.
Opinioni
Programma
Presentazione del corso:
ll corso dedicato alle tecniche di calcolo ad alte prestazioni si rivolge a programmatori esperti che vogliano familiarizzarsi con le problematiche del calcolo non sequenziale, ovvero intendano sfruttare al massimo livello le capacità di calcolo di elaboratori a più processori.
Lo scopo prioritario del corso è dunque quello di introdurre gli utenti, già con buona pratica di programmazione per applicazioni scientifiche, all'utilizzo delle macchine di cui il CILEA dispone. Le tecniche illustrate saranno pertanto sfruttabili per la programmazione efficiente sia di server multi-core a memoria condivisa, sia di piattaforme di calcolo distribuito, siano esse cluster di PC connessi da LAN o macchine con numerosi nodi connessi da una rete ad altissime prestazioni.
Il corso comunque mirerà a trasmettere nozioni non effimere, ossia non legate a particolari tipi di macchine, di buona programmazione parallela. Verranno dunque spiegate le funzionalità dei due strumenti attualmente più utilizzati il calcolo parallelo, la libreria MPI per il calcolo distribuito e la libreria OpenMP per il calcolo parallelo a memoria condivisa. Non verranno comunque trascurate altre modalità di programmazione parallela meno diffuse per vari motivi ma comunque di notevole importanza ed utilità in ambiti opportuni e per specifiche problematiche.
L'invito è quindi quello di non considerare di nicchia le competenze che il corso intende trasmettere.
L'evoluzione dell'informatica ha trasformato la CPU, in un elaboratore multi processore a memoria condivisa. A ciò si aggiunge un'architettura caratterizzata da una notevole complessità che mira a mantenere occupate per il maggior tempo possibile tutte le componenti di memoria, di calcolo e di comunicazione.
Il fatto che persino a livello di CPU di larga diffusione stia diventando importante l'uso del calcolo parallelo per pilotare esplicitamente, con
linguaggi di alto livello, il parallelismo delle sotto unità di un singolo processore è un indizio del valore di immediata applicabilità delle competenze che questo corso intende trasmettere.
Programma del corso:
Primo giorno
9:30-10:00 Presentazione del CILEA
10:00-11:00 Introduzione al Calcolo Parallelo
11:15-12:30 OpenMP
12:30-14:00 Pausa pranzo (libera)
14:00-17:15 OpenMP: laboratorio
Secondo giorno
9:30-11:00 Cenni di Posix Threads
11:15-12:30 MPI - concetti base
12:30-14:00 Pausa pranzo (libera)
14:00-17:15 MPI - concetti base: laboratorio
Terzo giorno
9:30-10:00 Architetture parallele e distribuite
10:00-12:30 SMS
12:30-14:00 Pausa pranzo (libera)
14:00-16:30 SMS: laboratorio
16:30-17:15 Visita guidata alla sala macchine
Quarto giorno
9:30-11:00 Introduzione al GRID computing
11:15-12:30 MPI - Approfondimenti
12:30-14:00 Pausa pranzo (libera)
14:00-17:15 MPI - Approfondimenti: laboratorio
Ulteriori informazioni
Euro 220,00 + IVA per le Università e gli Enti di Ricerca Euro 345,00 + IVA per gli altri enti
Hai bisogno di un coach per la formazione?
Ti aiuterà a confrontare vari corsi e trovare l'offerta formativa più conveniente.
Introduzione Alle Tecniche Di Calcolo Parallelo E Distribuito