Bis zu 93 PetaFLOPS (!)
So schnell sind die neuen Supercomputer
19.06.2017
Überraschung bei den vorderen Plätzen der Top 500 der schnells
China behauptet sich weiter souverän an der Spitze der "Top 500"-Liste der weltweit schnellsten Supercomputer. Mit einer Rechenleistung von 93 PetaFLOPS lässt die Anlage "Sunway TaihuLight" im Supercomputer Center in Wuxi seine Verfolger weit hinter sich.
Traditionell wird die Liste zum Auftakt der International Supercomputer Conference bekannt gegeben, die am Montag in Frankfurt am Main begann. FLOPS steht für Floating Point Operations Per Second also Gleitkommaoperationen pro Sekunde.
Auch den zweiten Platz sichert sich China. Tianhe-2 (Milchstraße), ein System in Guangzho, war mit einer Rechenleistung von 33,9 PetaFLOPS (Billiarden Gleitkommaoperationen in der Sekunde) drei Jahre lang die Nummer eins. Auch auf dem dritten Platz sind die USA, die lange die Top Ten dominiert haben, nicht mehr vertreten. Die Leistung des Schweizer Systems "Piz Daint" am Nationalen Supercomputing Center wurde von 9,8 auf 19,6 PetaFLOPS verdoppelt und drängte nach vorn.
>>>Nachlesen: Europa bekommt neuen Supercomputer
Erstmals seit 1996 nehmen die USA damit keinen der ersten drei Plätze mehr ein. Ein einziges Mal in der 24-jährigen Geschichte der Liste hatten 1996 drei japanische Systeme die ersten drei Plätze besetzt.
Der "Vienna Scientific Cluster " (VSC-3), Österreichs leistungsfähigster Computer, ist auf Platz 330 (von zuvor 246) abgerutscht. Der seit 2009 sukzessive ausgebaute Hochleistungsrechner-Verbund wird von den Universität Wien, Graz, Innsbruck und Klagenfurt, den Technischen Universitäten Wien und Graz, der Universität für Bodenkultur und der Montanuniversität Leoben betrieben.
Auch Deutschland ist unter den Top Ten nicht vertreten. Das Höchstleistungsrechenzentrum Stuttgart schaffte es mit "Hazel Hen" (5,6 Petaflops) noch auf den 17. Platz, blieb damit aber hinter Italien ("Marconi Intel Xeon Phi" mit 6,2 PetaFLOPS auf Platz 14), Spanien ("MareNostrum" in Barcelona mit 6,2 PetaFLOPS auf Platz 13) und Großbritannien ("Cray XC40" mit 7,0 PetaFLOPS auf Platz 11) zurück. Das Forschungszentrum Jülich platziert sich mit "Juqueen" (5 PetaFLOPS) auf Rang 21.
>>>Nachlesen: Erster Exaflop-Rechner wird gebaut
Supercomputer gewinnen immer mehr an Bedeutung in Wirtschaft, Wissenschaft und Forschung, aber auch für die allgemeine Wettbewerbsfähigkeit von Ländern. Von der Astrophysik über die Medizin bis hin zur komplexen Simulation von Verkehrsströmen, Molekülbewegungen oder Wetterphänomenen - hoch leistungsfähige Rechensysteme werden zunehmend genutzt. Die Leistungsfähigkeit wird für die Top 500 jedoch traditionell über den sogenannten Benchmark-Wert ermittelt, der von vielen Experten als nicht mehr zeitgemäß eingeschätzt wird.
In der Praxis sei die Anzahl der Fließkommaberechnungen pro Sekunde (FLOPS) nur "bedingt aussagekräftig", sagte ein Sprecher von IBM. Es gehe bei vielen komplexen Berechnungen längst nicht mehr um Quantität, sondern um Qualität. Der amerikanische IT-Riese, selbst Lieferant zahlreicher gelisteter Supercomputer auf der Top 500, forscht seit geraumer Zeit an neuen Rechenmethoden, etwa an Quantencomputern.
Quantencomputer unterscheiden sich fundamental von herkömmlichen binären Rechnern. Nach den Gesetzen der Quantenmechanik können Komponenten dabei nicht nur jeweils einen (0 oder 1), sondern mehrere Zustände gleichzeitig abbilden. Dafür wird jedoch auch eine ganz neue Art von Software nötig. Nach jahrzehntelanger Forschung bietet IBM inzwischen erste Dienstleistungen auf Basis von leistungsstarken Quanten-Prozessoren aus der Cloud an. Vor allem für die Simulation etwa von Molekülen, in der Materialforschung, für Finanzdienste, künstlicher Intelligenz und bei der Verschlüsselung sehen die Forscher die wichtigsten Einsatzgebiete.
>>>Nachlesen: Das sind die schnellsten Supercomputer
Quantencomputer seien die "nächste große Technologie mit dem Potenzial, eine neue Ära der Innovation über alle Industriezweige hinweg einzuläuten", sagte Arvind Krishna von IBM Research. Mit klassischen Computern und Technologien ließen sich zum Beispiel heute schon Muster in großen Datenmengen erkennen. Quantencomputer könnten dagegen Lösungen für wichtige Probleme liefern, bei denen keine Muster erkennbar sind - und die Anstrengungen dafür so enorm seien, dass sie von klassischen Computern niemals verarbeitet werden können.