Go to page

Bibliographic Metadata

Links
Abstract

Rechnergestützte Wissenschaften spielen in vielen Disziplinen eine wachsende Rolle. Dies gilt besonders in der Computerchemie, wo mit Hilfe großer computergestützter Simulationen Einblicke in chemische Bindungen und den Aufbau von Molekülen und Festkörpern gewonnen werden. Um heutige Hochleistungsrechner für solche Simulationen effektiv zu nutzen, müssen die Rechnungen auf Tausenden von Rechenknoten parallelisiert werden. Außerdem gewinnt die Nutzung von Beschleunigern, wie GPUs und FPGAs, zunehmend an Bedeutung. Diese Arbeit behandelt diese beiden Herausforderungen im Kontext von Ab-Initio Molekulardynamik (AIMD) und linear skalierender Dichtefunktionaltheorie. Um eine massiv parallele Ausführung zu erreichen und die effektive Nutzung von Beschleunigern zu ermöglichen, führen wir gezielt Approximationen ein und führen Rechnungen mit geringer Präzision aus. Wir untersuchen iterative Algorithmen zur Berechnung inverser p-ter Wurzeln und der Signumfunktion von Matrizen und demonstrieren ihre Robustheit gegen Fehler, die durch Rechnungen mit geringer Präzision eingeführt werden. Um diese Algorithmen für dünn besetzte Matrizen außerdem massiv zu parallelisieren, führen wir die Submatrix-Methode ein. Diese approximative Methode verteilt Operationen auf dünn besetzten Matrizen auf eine große Anzahl von Rechenknoten und Beschleunigern. Somit können diese Rechnungen große, heterogene Hochleistungsrechner sowie ihre Beschleuniger effektiv nutzen. Wir demonstrieren die praktische Integration der vorgestellten Methoden in den Open Source Quantenchemie-Code CP2K und binden sowohl GPUs als auch FPGAs in einer hoch skalierbaren Art ein. Damit wird die Grundlage geschaffen, AIMD-Simulationen effizient auf modernen, heterogenen Hochleistungsrechnern auszuführen und auf größere Moleküle anzuwenden.

Abstract

Computational sciences play an ever-growing role in many academic disciplines. One particularly active field is computational chemistry where insight into chemical bonds and the structure of molecules and solids is gained by running large computer simulations, often based on quantum mechanical calculations. To be able to make effective use of today's large high performance computing (HPC) clusters for these simulations, the computations must be parallelized across thousands of compute nodes. Additionally, utilizing dedicated accelerator hardware such as GPUs and FPGAs becomes more and more important. This thesis tackles both of these challenges in the context of ab-initio molecular dynamics simulations using linear scaling density matrix based density functional theory as underlying electronic structure method. To reach massive parallelism and to make effective use of accelerator hardware, we introduce targeted approximations and exploit low-precision arithmetic in the involved computations. We examine iterative algorithms for two central linear algebra kernels, namely matrix inverse p-th roots and the matrix sign function, and demonstrate their resilience against errors introduced by using low-precision arithmetic. To apply these algorithms to large sparse matrices in a massively parallel way, we introduce the Submatrix Method as an approximate method to distribute matrix operations on sparse matrices onto a large number of compute nodes and multiple accelerator devices. As a result, the computations can make effective use of large, heterogeneous HPC clusters and their different accelerators. We demonstrate the practical integration of the presented methods in the quantum chemistry code CP2K, integrating both GPUs and FPGAs in a highly scalable way. ...