Introduzione Alle Tecniche Di Calcolo Parallelo E Distribuito

Cilea Consorzio Interuniversitario Lombardo
A Segrate

345 
+IVA
Vuoi parlare del corso con un consulente?
Confronta questo corso con altri simili
Leggi tutto

Informazione importanti

  • Corso
  • Segrate
  • Durata:
    4 Giorni
Descrizione

Obiettivo del corso: Il corso mira a trasmettere nozioni non effimere, ossia non legate a particolari tipi di macchine, di buona programmazione parallela. Vengono spiegate le funzionalità dei due strumenti attualmente più utilizzati per il calcolo parallelo scientifico, la libreria MPI per il calcolo distribuito e la libreria OpenMP per il calcolo parallelo a memoria condivisa. Non sono comunque trascurate altre modalità di programmazione parallela, per vari motivi meno diffuse, ma comunque di notevole importanza ed utilità in ambiti opportuni e per specifiche problematiche.
Rivolto a: ll corso dedicato alle tecniche di calcolo ad alte prestazioni si rivolge a programmatori esperti che vogliano familiarizzarsi con le problematiche del calcolo non sequenziale, ovvero intendano sfruttare al massimo livello le capacità di calcolo di elaboratori a più unità di calcolo. Le tecniche illustrate saranno pertanto sfruttabili per la programmazione efficiente di un’ampia varietà di macchine, dai moderni processori multi-core, motore dei più diffusi elaboratori personali, fino alle più veloci e complesse macchine per il calcolo distribuito massicciamente parallelo.

Informazione importanti
Sedi

Dove e quando

Inizio Luogo
Consultare
Segrate
Via R. Sanzio 4, 20090, Milano, Italia
Visualizza mappa

Domande più frequenti

· Requisiti

Buone conoscenze di almeno un linguaggio procedurale di alto livello, in particolare Fortran o C/C++.

Programma

Presentazione del corso:
ll corso dedicato alle tecniche di calcolo ad alte prestazioni si rivolge a programmatori esperti che vogliano familiarizzarsi con le problematiche del calcolo non sequenziale, ovvero intendano sfruttare al massimo livello le capacità di calcolo di elaboratori a più processori.
Lo scopo prioritario del corso è dunque quello di introdurre gli utenti, già con buona pratica di programmazione per applicazioni scientifiche, all'utilizzo delle macchine di cui il CILEA dispone. Le tecniche illustrate saranno pertanto sfruttabili per la programmazione efficiente sia di server multi-core a memoria condivisa, sia di piattaforme di calcolo distribuito, siano esse cluster di PC connessi da LAN o macchine con numerosi nodi connessi da una rete ad altissime prestazioni.
Il corso comunque mirerà a trasmettere nozioni non effimere, ossia non legate a particolari tipi di macchine, di buona programmazione parallela. Verranno dunque spiegate le funzionalità dei due strumenti attualmente più utilizzati il calcolo parallelo, la libreria MPI per il calcolo distribuito e la libreria OpenMP per il calcolo parallelo a memoria condivisa. Non verranno comunque trascurate altre modalità di programmazione parallela meno diffuse per vari motivi ma comunque di notevole importanza ed utilità in ambiti opportuni e per specifiche problematiche.
L'invito è quindi quello di non considerare di nicchia le competenze che il corso intende trasmettere.
L'evoluzione dell'informatica ha trasformato la CPU, in un elaboratore multi processore a memoria condivisa. A ciò si aggiunge un'architettura caratterizzata da una notevole complessità che mira a mantenere occupate per il maggior tempo possibile tutte le componenti di memoria, di calcolo e di comunicazione.
Il fatto che persino a livello di CPU di larga diffusione stia diventando importante l'uso del calcolo parallelo per pilotare esplicitamente, con
linguaggi di alto livello, il parallelismo delle sotto unità di un singolo processore è un indizio del valore di immediata applicabilità delle competenze che questo corso intende trasmettere.

Programma del corso:

Primo giorno
9:30-10:00 Presentazione del CILEA
10:00-11:00 Introduzione al Calcolo Parallelo
11:15-12:30 OpenMP
12:30-14:00 Pausa pranzo (libera)
14:00-17:15 OpenMP: laboratorio

Secondo giorno
9:30-11:00 Cenni di Posix Threads
11:15-12:30 MPI - concetti base
12:30-14:00 Pausa pranzo (libera)
14:00-17:15 MPI - concetti base: laboratorio

Terzo giorno
9:30-10:00 Architetture parallele e distribuite
10:00-12:30 SMS
12:30-14:00 Pausa pranzo (libera)
14:00-16:30 SMS: laboratorio
16:30-17:15 Visita guidata alla sala macchine

Quarto giorno
9:30-11:00 Introduzione al GRID computing
11:15-12:30 MPI - Approfondimenti
12:30-14:00 Pausa pranzo (libera)
14:00-17:15 MPI - Approfondimenti: laboratorio

Ulteriori informazioni

Informazioni sul prezzo :

Euro 220,00 + IVA per le Università e gli Enti di Ricerca Euro 345,00 + IVA per gli altri enti


Confronta questo corso con altri simili
Leggi tutto