Blue Waters Experiences, Observations and Projections for GPU use in Open, Scientific, Extreme Scale Research Systems
NVIDIA GTC Conference– August 2016
Blue Waters Experiences, Observations and Projections for GPU use in - - PowerPoint PPT Presentation
Blue Waters Experiences, Observations and Projections for GPU use in Open, Scientific, Extreme Scale Research Systems NVIDIA GTC Conference August 2016 Professor William Kramer National Center for Supercomputing Applications, University of
NVIDIA GTC Conference– August 2016
improve the performance and scalability of their applications
the system and to help scientists and engineers make effective use of the system
Gbps) and data archive (>300 PB)
community transition to new modes for computational and data-driven science and engineering
GTC Conference - April 2015
Environment
GTC Conference - April 2015
GTC Conference - April 2015
H T 3 H T 3
Number ¡of ¡Cores ¡ AMD ¡Interlagos ¡6200 ¡Core ¡ Module ¡Processors ¡ 2 ¡sockets, ¡2 ¡Core ¡ Modules ¡ 4 ¡AMD ¡Processor ¡chips ¡ 16 ¡FP ¡Bulldozer ¡Core ¡ ¡ 32 ¡Integer ¡Cores ¡ Peak ¡Performance ¡ 313 ¡Gflops/sec ¡ Memory ¡Size ¡ 4 ¡GB ¡per ¡core-‑m ¡ 64 ¡GB ¡per ¡node ¡ Memory ¡Bandwidth(Peak) ¡ 102.4 ¡GB/sec ¡
GTC Conference - April 2015
H T 3 H T 3
PCIe Gen2
AMD ¡Series ¡6200 ¡(Interlagos) ¡Core ¡ Module ¡ NVIDIA ¡Kepler ¡ ¡K20X ¡ Host ¡Memory ¡-‑ ¡32GB ¡ 1600 ¡MHz ¡DDR3 ¡ NVIDIA ¡X2090 ¡Memory ¡ 6GB ¡GDDR5 ¡capacity ¡ Gemini ¡High ¡Speed ¡Interconnect ¡
GTC Conference - April 2015
XE6 ¡Compute ¡Nodes ¡-‑ ¡5,688 ¡Blades ¡– ¡22,640 ¡Nodes ¡– ¡ ¡ ¡ 362,240 ¡FP ¡(bulldozer) ¡Cores ¡– ¡724,480 ¡Integer ¡Cores ¡ 4 ¡GB ¡per ¡FP ¡core ¡
DSL ¡ 48 ¡Nodes ¡
Resource ¡ ¡ Manager ¡(MOM) ¡ 64 ¡Nodes ¡
H2O ¡Login ¡ ¡ 4 ¡Nodes ¡ Import/Export ¡ Nodes ¡ Management ¡Node ¡
HPSS ¡Data ¡Mover ¡ Nodes ¡
XK7 ¡ ¡GPU ¡Nodes ¡ 1,056 ¡Blades ¡– ¡4,224 ¡Nodes ¡ 33,792 ¡FP ¡Cores ¡-‑ ¡11,354,112 ¡cuda ¡cores ¡ ¡ ¡ ¡– ¡4,224 ¡K20X ¡GPUs, ¡4 ¡GB ¡per ¡FP ¡core ¡
Sonexion ¡ 25+ ¡usable ¡PB ¡online ¡storage ¡ 36 ¡racks ¡
BOOT ¡ 2 ¡Nodes ¡ SDB ¡ 2 ¡Nodes ¡ Network ¡GW ¡ 8 ¡Nodes ¡ Reserved ¡ 74 ¡Nodes ¡ LNET ¡Routers ¡ 582 ¡Nodes ¡
InfiniBand ¡fabric ¡
Boot RAID
SMW ¡ ¡
10/40/100 ¡Gb ¡ Ethernet ¡Switch ¡
RSIP ¡ 12Nodes ¡
Near-‑Line ¡Storage ¡ 300+ ¡usable ¡PB ¡
Cyber ¡Protecbon ¡IDPS ¡
GTC Conference - April 2015
GTC Conference - April 2015
scale on an Academic Campus
cooling [50,000 ft2 (4,645+ m2) machine
room gallery and sustained 100 MW]
20,000 ft2 (1,860+ m2) machine room gallery
working group and
GTC Conference - April 2015
Astronomy ¡and ¡ Astrophysics ¡ 26.7% ¡ Atmospheric ¡and ¡ Climate ¡Sciences ¡ 5.6% ¡ Biochemistry ¡ 0.01% ¡ Biology ¡and ¡ Biophysics ¡ 19.5% ¡ Chemistry ¡ 5.5% ¡ Computer ¡Science ¡ 0.7% ¡ Earth ¡ Sciences ¡ 1.2% ¡ Engineering ¡ 1.1% ¡ Fluid ¡ Systems ¡ 0.8% ¡ Geophysics ¡ 1.6% ¡ Humanibes ¡ 0.01% ¡ Materials ¡Science ¡ 4.1% ¡ Mechanical ¡and ¡ Dynamic ¡Systems ¡ 0.02% ¡ Nuclear ¡Physics ¡ 0.5% ¡ Ocean ¡Sciences ¡ 0.01% ¡ Parbcle ¡(& ¡Nuclear) ¡ Physics ¡ 27.6% ¡ Physics ¡ 4.7% ¡ Social ¡Sciences ¡ 0.2% ¡ STEM ¡Educabon ¡ 0.1% ¡ Visualizabon ¡ 0.001% ¡
GTC Conference - April 2015
ALABAMA
University of Alabama University of Alabama, Huntsville
ARIZONA
University of Arizona
CALIFORNIA
California Institute of Technology California Polytechnic State University, San Luis Obispo City of Hope Hoover Institution Lawrence Berkeley National Laboratory Lawrence Livermore National Laboratory Lockheed Martin Advanced Technology Center Mellanox Technologies Nvidia Corporation San Diego State University San Diego Supercomputer Center Seagate Technology LLC Stanford University University of California, Berkeley University of California, Davis University of California, Irvine University of California, Los Angeles University of California, San Diego University of California, San Francisco University of California, Santa Barbara University of California, Santa Cruz University of Southern California Xyratex
COLORADO
Allinea Colorado School of Mines Colorado State University National Center for Atmospheric Research University Corporation for Atmospheric Research
CONNECTICUT
Yale University
FLORIDA
University of Florida
GEORGIA
Georgia Institute of Technology
IOWA
Iowa State University
ILLINOIS
Argonne National Laboratory Caterpillar, Inc. Illinois Institute of Technology IllinoisRocstar TeraGrid The HDF Group University of Chicago University of Illinois at Chicago University of Illinois at Urbana- Champaign University of Southern Denmark Western Illinois University
INDIANA
Earlham College Indiana University Purdue University University of Notre Dame
KENTUCKY
Centre College University of Kentucky
LOUISIANA
Louisiana State University
MASSACHUSETTS
Harvard University
MARYLAND
Center for Ocean-Land-Atmosphere Studies Institute of Global Environment and Society Johns Hopkins University ParaTools, Inc. University of Maryland University of Maryland, College Park
MICHIGAN
Central Michigan University Michigan State University University of Michigan
MINNESOTA
Fond du Lac Tribal and Community College Mayo Clinic University of Minnesota University of Minnesota, Twin Cities
MISSOURI
University of Missouri, Kansas City
MISSISSIPPI
Mississippi State University
NORTH CAROLINA
North Carolina State University at Raleigh Shodor Education Foundation, Inc. University of North Carolina, Chapel Hill University of North Carolina, Charlotte
NEW HAMPSHIRE
University of New Hampshire
NEW JERSEY
Princeton Plasma Physics Laboratory Princeton University Richard Stockton College of New Jersey Rutgers, the State University of New Jersey
NEW MEXICO
Los Alamos National Laboratory New Mexico State University Sandia National Laboratories
NEVADA
University of Nevada-Las Vegas
NEW YORK
Brookhaven National Laboratory Cornell University IBM Kitware, Inc. Memorial Sloan Kettering Cancer Center Rochester Institute of Technology SUNY at Stony Brook
OHIO
Bluffton University Ohio State University Ohio Supercomputer Center Procter & Gamble Co
OKLAHOMA
University of Tulsa
OREGON
University of Oregon
PENNSYLVANIA
Carnegie Mellon University Drexel University Pennsylvania State University Pittsburgh Supercomputing Center Slippery Rock University Spiralgen, Inc. Temple University University of Pittsburgh
RHODE ISLAND
Dassault Systems Simulia Corp
SOUTH CAROLINA
Wofford College
SOUTH DAKOTA
South Dakota State University
TENNESSEE
National Institute for Computational Sciences Oak Ridge National Laboratory University of Memphis University of Tennessee, Knoxville University of Tennessee, Oak Ridge
TEXAS
Southern Methodist University University of Houston-Clear Lake University of Texas at Austin University of Texas at El Paso University of Texas Medical Branch at Galveston
UTAH
Adaptive Computing, Inc. Brigham Young University University of Utah
VIRGINIA
Aerospace Corporation College of William and Mary Jefferson Laboratory Old Dominion University University of Mary Washington University of Virginia Virginia Polytechnic Institute and State University
WASHINGTON
Cray, Inc. University of Washington
WEST VIRGINIA
West Virginia University
WYOMING
University of Wyoming
PUERTO RICO
University of Puerto Rico, Mayaguez
INTERNATIONAL
University of Victoria, Canada University of Sherbrooke, Canada Perimeter Institute for Theoretical Physics, Canada Czech Technical University in Prague, Czech Republic University of Copenhagen, Denmark Cambridge University, England Institute for Research in Computer Science and Automation, France Max Planck Institute for Solar System Research, Germany Max Planck Institute for Astrophysics, Germany Heidelberg Institute for Theoretical Studies, Germany University of L’Aquila, Italy National Institute for Astrophysics, Italy Novocraft Technologies, Malaysia University of Oslo, Norway Multidisciplinary Center for Astrophysics, Portugal University of Edinburgh, Scotland University of Granada, Spain Barcelona Supercomputing Center, Spain Swiss National Supercomputing Centre, Switzerland ETH Zurich, Switzerland
environment and its interaction with the Sun
simulations to understand the response
perturbations.
development of accurate space weather forecasting capabilities.
magnetic reconnection
decaying collisionless plasma turbulence
addressing coupling between shock physics & magnetosheath turbulence
GTC Conference - April 2015 Fully kinetic simulation (all species kinetic; code: VPIC) ~up to 1010 cells ~up to 4x1012 particles ~120 TB of memory ~107 CPU-HRS ~up to 500,000 cores Large scale hybrid kinetic simulation: (kinetic ions + fluid electrons; codes: H3D, HYPERES) ~up to 1.7x1010 cells ~up to 2x1012 particles ~130 TB of memory Slide courtesy of H Karimardi MSMP ¡ CADENS ¡
GTC Conference - April 2015
elements in the developing universe that are strongly affected by hydrogen ingestion events
zones
what is practical and what important research it is sensible to undertake.”
time
Blue Waters is unique in the NSF computing infrastructure, enabling large and detailed simulations allowing for the discovery of a global oscillation of shell hydrogen ingestion.
MSMP ¡
GTC Conference
GTC Conference - April 2015
Develop 3D physics-based earthquake simulations for the urban regions of California that are more accurate than the empirical NSHMP standard
structures
infrastructure
complex geological structures in governing the amplitudes of strong ground motions.
days.
CyberShake 14.2 study are shown in Figure 1.
MSMP ¡
GTC Conference - April 2015
better how the HIV capsid infects the host cells and could lead to new HIV therapies.
bacteria to absorb sunlight and turn it into chemical fuel that drives many processes in the
processes.
therapy, Together with experimental collaborators, were able to describe the action of cyclophilin A on the capsid to help scientists understand better how the HIV capsid infects the host cells
Visualization and Data Analytics Showcase award winner.
MSMP ¡
GTC Conference - April 2015
GTC Conference - April 2015
GTC Conference - April 2015
0" 200" 400" 600" 800" 1000" 1200"
0" 20" 40" 60" 80" 100" 120" 140" 1" 10" 100" 1000" 10000" 100000"
Accumulated*Actual*Usage*in*Integer*Core*Hours* Millions* Accumulated*Actual*Usage*in*Node*Hours* Millions* Number*of*nodes*in*Job*
Accululated*Actual*XE*Node*U<liza<on*by*Job*Size*
360 nodes
GTC Conference - April 2015
¡-‑ ¡ ¡ ¡ ¡ ¡2,000,000.0 ¡ ¡ ¡4,000,000.0 ¡ ¡ ¡6,000,000.0 ¡ ¡ ¡8,000,000.0 ¡ ¡ ¡10,000,000.0 ¡ ¡ ¡12,000,000.0 ¡ ¡ ¡14,000,000.0 ¡ ¡ ¡16,000,000.0 ¡ ¡ Bernholc ¡ ¡ ¡ ¡ ¡ Burrows ¡ ¡ ¡ ¡ ¡ ¡ Campanelli ¡ ¡ ¡ Cheatham ¡ ¡ ¡ ¡ ¡ Di ¡Maoeo ¡ ¡ ¡ ¡ Elghobashi ¡ ¡ ¡ Jordan ¡ ¡ ¡ ¡ ¡ ¡ ¡ Karimabadi ¡ ¡ ¡ Klimeck ¡ ¡ ¡ ¡ ¡ ¡ Lusk ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ Mori ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ Nagamine ¡ ¡ ¡ ¡ ¡ O'Shea ¡ ¡ ¡ ¡ ¡ ¡ ¡ Pande ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ Pogorelov ¡ ¡ ¡ ¡ Quinn ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ Reed ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ Schulten_PRAC ¡ Stein ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ Sugar ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ Voth ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ Woodward ¡ ¡ ¡ ¡ ¡ Woosley ¡ ¡ ¡ ¡ ¡ ¡ Wuebbles ¡ ¡ ¡ ¡ ¡ Yeung ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ Node ¡Hours ¡ Team ¡PI ¡
Team ¡XK ¡Usage ¡-‑ ¡Sept-‑Nov ¡2014 ¡ PRAC ¡Team ¡XE ¡Usage ¡-‑ ¡Sept-‑Nov ¡2014 ¡
GTC Conference - April 2015
¡-‑ ¡ ¡ ¡ ¡ ¡500,000.0 ¡ ¡ ¡1,000,000.0 ¡ ¡ ¡1,500,000.0 ¡ ¡ ¡2,000,000.0 ¡ ¡ ¡2,500,000.0 ¡ ¡ ¡3,000,000.0 ¡ ¡ Bernholc ¡ ¡ ¡ ¡ ¡ Burrows ¡ ¡ ¡ ¡ ¡ ¡ Campanelli ¡ ¡ ¡ Cheatham ¡ ¡ ¡ ¡ ¡ Di ¡Maoeo ¡ ¡ ¡ ¡ Elghobashi ¡ ¡ ¡ Jordan ¡ ¡ ¡ ¡ ¡ ¡ ¡ Karimabadi ¡ ¡ ¡ Klimeck ¡ ¡ ¡ ¡ ¡ ¡ Lusk ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ Mori ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ Nagamine ¡ ¡ ¡ ¡ ¡ O'Shea ¡ ¡ ¡ ¡ ¡ ¡ ¡ Pande ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ Pogorelov ¡ ¡ ¡ ¡ Quinn ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ Reed ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ Schulten_PRAC ¡ Stein ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ Sugar ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ Voth ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ Woodward ¡ ¡ ¡ ¡ ¡ Woosley ¡ ¡ ¡ ¡ ¡ ¡ Wuebbles ¡ ¡ ¡ ¡ ¡ Yeung ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ Node ¡Hours ¡ Team ¡PI ¡
Team ¡XK ¡Usage ¡-‑ ¡Sept-‑Nov ¡2014 ¡ PRAC ¡Team ¡XE ¡Usage ¡-‑ ¡Sept-‑Nov ¡2014 ¡
GTC Conference - April 2015
¡-‑ ¡ ¡ ¡ ¡ ¡500,000.0 ¡ ¡ ¡1,000,000.0 ¡ ¡ ¡1,500,000.0 ¡ ¡ ¡2,000,000.0 ¡ ¡ ¡2,500,000.0 ¡ ¡ ¡3,000,000.0 ¡ ¡ Node ¡Hours ¡ Team ¡PI ¡
PRAC ¡Team ¡XK ¡Usage ¡-‑ ¡Sept-‑Nov ¡2015 ¡ PRAC ¡Team ¡XE ¡Usage ¡-‑ ¡Sept-‑Nov ¡2015 ¡
GTC Conference - April 2015
GTC Conference - April 2015
GTC Conference - April 2015
GTC Conference - April 2015
NAMD Schulten Topology Aware / Communication Pattern Detection (Kale) Scalability and Load Balancing (Kale) Improving Performance of the New AMR Multifluid PPM Gas Dynamics Code on Blue Waters Woodward Topology Aware / Communication Pattern Detection (Kale) Scalability and Load Balancing (Kale) Effective use of Accelerators/Highly Parallel Heterogeneous Units (Hwu) Load Balancing for HARM3d Noble Topology Aware / Communication Pattern Detection (Kale) Scalability and Load Balancing (Kale) ChaNGa GPU Scaling Quinn Scalability and Load Balancing (Kale) Effective use of Accelerators/Highly Parallel Heterogeneous Units (Hwu) Petascale computation of turbulence using a hybrid pseudo-spectral and compact finite difference approach Yeung Topology Aware / Communication Pattern Detection (Kale) Automatic Topology- Aware Task Mapping (Bhatele) Spiral FFT (Franchetti)
GTC Conference - April 2015
GTC Conference - April 2015
GTC Conference - April 2015
GTC Conference - April 2015
GTC Conference - April 2015
GTC Conference - April 2015
GTC Conference - April 2015