Győri HPC kutatások és alkalmazások dr. Horváth Zoltán – dr. Környei László – Fülep Dávid Széchenyi István Egyetem Matema5ka és Számítástudomány Tanszék
Új lehetőségek a kutatói hálózatban – Győr, 2012. június 4.
1
HPC szimulációk az iparban Feladat: Rába-‐futómű terhelés hatására történő alakváltozásának kiszámítása számítógépes szimulációval Megoldás: Munkaállomáson: 7 óra Egyetem szuperszámítógépen – 4 magon: 111 perc – 8 magon: 73 perc – 48 magon: 29 perc Új lehetőségek a kutatói hálózatban – Győr, 2012. június 4.
2
Kereskedelmi és egyedi fejlesztésű szo[verek HPC környezetben Kereskedelmi szo[verek Egyedi fejlesztésű szo[ver o Szimuláció o SIMULIA Abaqus o Ansys Fluent o NX Nastran
o Egyéb o Matlab o Maple
Új lehetőségek a kutatói hálózatban – Győr, 2012. június 4.
o PARMOD szimulációs környezet o PARMOD-‐Nastran csatolás
Szabad felhasználású szo[verek o PetSC, OpenFOAM
3
A Fluent teljesítménye párhuzamos fugatások esetén E3
Speedup from 8 cores
6
5.23
5
5.01 4.02
4
E6
hengerfejcsavar meghúzás 3.07
3 2.05
2
1.78 1.42
1
lendkerék terhelés
1.00
2.70 2.16 1.79
S2A
2.07
mélyhúzás
1.32 S4D
0 8
16
32
Number of cores
Új lehetőségek a kutatói hálózatban – Győr, 2012. június 4.
64
koncentrikus gömbök
4
A Fluent egy alkalmazása:
Faelgázosító kazán hő és áramlástani szimulációja • Valódi kazán modellje:
Hőközlés, hőátadás, áramlás szimulációja k-‐ε turbulencia modellel, 2,5 millió cella
• Szo[verek:
Autodest Inventor, Altair Hypermesh, Tgrid (előkészítés), Ansys fluent (szimuláció)
Új lehetőségek a kutatói hálózatban – Győr, 2012. június 4.
5
PARMOD (PARalell MODellező)
a kutatócsoport egyedi fejlesztésű szimulációs keretrendszere
Keretrendszer fizikai szimulációk implementálására C++ és Python nyelven Elsősorban CFD szimulációkra fejleszteg Technológiák és könyvtárak: MPI, OpenMP, CUDA PetSC, ParMETIS, Boost
Támogatog geometriák: 2D és 3D hálók Általános poliéder és speciális hálók Importálás NASTRAN formátumból
Konfigurációk, VTK megjelenítés, mentés/visszatöltés támogatása Új lehetőségek a kutatói hálózatban – Győr, 2012. június 4.
6
Szimulációk PARMOD-‐ban:
Navier-‐stokes egyenletek megoldása o Többkomponensű gáz áramlási szimulációja o Turbulenciás k-‐ε Navier-‐Stokes modellben o Implementálás spektrális differenciák (SD) módszerével o Párhuzamosítás MPI segítségével: 210-‐szeres, közel lineáris gyorsulás 228 magon
Új lehetőségek a kutatói hálózatban – Győr, 2012. június 4.
7
Szimulációk PARMOD-‐ban:
Kétszelepes motor áramlástani szimulációja o o o o
Többkomponensű gáz áramlás Euler és Navier-‐stokes modellek Elsőrendő, explicit megoldás „Cseuntés” algoritmus a mozgás kezelésére
o Párhuzamosítás MPI, OpenMP és MPI+OpenMP hibrid segítségével: 60-‐szoros gyorsulás 192 CPU magon
Új lehetőségek a kutatói hálózatban – Győr, 2012. június 4.
8
Szimulációk PARMOD-‐ban:
Tomográfiás rekonstrukció GPU hardveren • Fúziós reaktor plazmájának vizsgálata tomográfia segítségével • Tomográfiás rekonstrukció bázisfüggvény segítségével: veszteség függvény minimalizálása regularizációval • Esetlegesen több képsor rekonstrukciója • Származtatog szimmetrikus mátrix Cholesky féle dekompozíciója – párhuzamosítható • Rekonstrukciós sebesség: CPU: 800 FPS, GPU: 56 000 FPS 80-‐szoros gyorsulás Új lehetőségek a kutatói hálózatban – Győr, 2012. június 4.
9
Szimulációk PARMOD-‐ban:
Áramlástani szimuláció GPU klaszteren • Kétkomponensű gáz áramlástani szimulációja szélcsatornás teszxeladatban • Euler modell, ideális gáz • Első rendű, explicit módszer • Párhuzamosítás: MPI+Cuda hibrid • Hardver: 4 x nVIDIA GTX 280 • Gyorsulások: 155 000 cellánál 120,5 642 000 cellánál 169,9 2 570 000 cellánál 207,5 Új lehetőségek a kutatói hálózatban – Győr, 2012. június 4.
10
Összefoglalás – tervek • A kereskedelmi és egyedi fejlesztésű szo[verek alkalmasak HPC hardveren történő fugatásra • A tanszéki kutatócsoport szakmailag felkészült a legújabb technológiák alkalmazására • Cél a szo[vereink elérhetővé tétele ipari felhasználók számára • A PARMOD fejlesztésében újabb tudományos eredmények alkalmazása és elérése Új lehetőségek a kutatói hálózatban – Győr, 2012. június 4.
11