Verehrte Leser*innen,
die Ihnen vorliegende Ausgabe der
UNIKATE ist ein wahres Unikat
– konzentrieren sich die meisten
Ausgaben doch auf ein einziges Forschungsgebiet.
Im vorliegenden Heft
liegen Ihnen aber Aufsätze zu wichtigen
Werkzeugen der Natur-, der
Ingenieur- als auch der Wirtschaftswissenschaften
vor – dem Hochleistungsrechnen
und dem Cloud Computing.
Beiden ist gemein, dass
Rechenressourcen bereitgestellt
werden, deren Leistungsfähigkeit
weit über dem liegt, was ein einzelner
Nutzer jemals für sich selber
rechtfertigen oder nutzen könnte.
Ebensowenig ist für den Nutzer
direkt sichtbar, wo sich die Rechenkapazität
befindet, wer sie betreibt
und wie die Berechnung technisch
realisiert wird.
Zwischen Cloud und Hochleistungscomputing
gibt es aber auch
wesentliche Unterschiede. Anwendungen
in der Cloud erfordern oft
eine große Speicherkapazität und viel
Rechenleistung. Diese kann über
eine große Zahl von Recheneinheiten
verteilt sein, die nur selten Daten
austauschen müssen. Häufig sind
auch die über die Recheneinheiten
verteilten Aufgaben stark unterschiedlich
und die genutzten Prozessoren
oft inhomogen. Beim Hochleistungsrechnen
dagegen wird eine
einzige Anwendung auf viele homogene
Rechenressourcen verteilt, die
sich aber permanent über die jeweiligen
Rechenergebnisse austauschen
müssen. Hochleistungsrechnen
erfordert daher eine enge Kopplung
der laufenden Prozesse, weshalb die
verwendeten Prozessoren in räumlicher
Nähe zueinander angeordnet
und besonders effizient vernetzt sein
müssen.
Historisch ist das Hochleistungsrechnen
wohl die älteste Form des
wissenschaftlichen Rechnens –
zunächst zur Militärforschung
(Berechnung von Geschossbahnen
oder von Kernreaktionen), später zur
Wettervorhersage, zur Simulation
von Strukturen und deren Verformung
(Fahrzeug-Crash-Simulationen),
von Strömungen (Verringerung
des Kraftstoffverbrauchs), von
Stoff- und Materialeigenschaften
sowie von chemischen Reaktionen.
Dabei sind die physikalisch-mathematischen
Probleme von einer Art, die
sich nur durch schnelle Vernetzung
der einzelnen Rechenwerke effizient
lösen lässt.
Dagegen ist das Cloud Computing
wohl die neueste Form des wissenschaftlichen
Rechnens. Sein technologischer
Vorläufer, das Grid Computing,
geht auf das Konzept elektrischer
Stromnetze zurück: der Nutzer kann
über standardisierte Adapter auf das
Netz zugreifen, die technische Realisierung
bleibt ihm aber verborgen.
Das Grid Computing ist gewissermaßen
die Übertragung dieses Konzepts
auf IT-Ressourcen, wie Rechnerleistung
oder Speicherkapazität. Ein
Grid besteht aus geografisch verteilten
Ressourcen, die administrativ unabhängig
von Organisationen betreut
werden, standardisierte, offene Protokolle
und Schnittstellen verwenden
und bestimmte Eigenschaften in
Bezug auf Antwortzeitverhalten, Verfügbarkeit
und Durchsatz aufweisen.
Groß angelegte wissenschaftliche
Anwendungen, wie die des Large
Hadron Collider des CERN, erforderten
mehr Rechenleistung als ein
lokales Cluster-System bereitstellen
konnte. Die schnelle Vernetzbarkeit
über das Internet beförderte schließlich
die Idee einer gemeinsamen,
koordinierten Nutzung von IT-Ressourcen
über virtuelle Organisationen
hinweg. Während wissenschaftliche
Grid-Umgebungen ohne komplizierte
Preisgestaltung auskommen,
haben bei kommerziell betriebenen
Netzwerken Geschäfts- und Preisgestaltungsmodelle
eine besondere
Bedeutung. Cloud Computing
berücksichtigt Fragen, die das
Geschäftsmodell betreffen, während
das dezentrale Management und der
Zugriff auf verteilte Ressourcen (entsprechend
dem Grid Computing)
nicht weiterverfolgt werden. Vielmehr
resultieren gerade aus der Zentralisierung
von Rechenressourcen
entscheidende wirtschaftliche Vorteile
(Economies of Scale). Durch die
Virtualisierung ermöglichen Clouds
die dynamische Bereitstellung und
Rückgabe von IT-Ressourcen. Parallel
hierzu wird die Ressourcennutzung
überwacht, um durch die dynamische
Zuteilung von Anwendungen
und Ressourcen für einen Belastungsausgleich
zu sorgen.
Sowohl Hochleistungsrechnen
wie Cloud Computing stellen essentielle
Werkzeuge und Forschungsgegenstände
an unserer Universität dar
– wovon Sie die folgenden Seiten
sicher überzeugen werden.
Beim Hochleistungsrechnen ist
die UDE mit der neuen Maschine
MagnitUDE außergewöhnlich gut
aufgestellt – einem der 500 schnellsten
Rechner weltweit, und darunter
einer der energieeffizientesten! Diese
Maschine stellt den Nutzern nicht
nur unkompliziert massive Rechenleistung
bereit, sondern ermöglicht
auch den Schritt zum exklusiven
Club der Nutzer der allergrößten
deutschen Rechner in Jülich, Stuttgart
und München und sogar darüber
hinaus.
Cloud Computing wird an der
UDE vor allem dazu verwendet, um
Studierenden teure kommerzielle
Softwarewerkzeuge und praxisrelevante
Daten auf abgesicherte Weise
zur Verfügung zu stellen. Diese
Anwendungen können sowohl vom
Hörsaal als auch von zuhause aufgerufen
werden. Gegenstand der Forschung
ist Cloud Computing an der
UDE vor allem hinsichtlich Sicherheit
und Prüfbarkeit sowie Lokalisierung
und Navigation.
Als Herausgeber dieser Ausgabe
bleibt uns, den Autoren aus den verschiedenen
Fachbereichen der UDE
für ihre Beiträge zu danken. Ihnen
allen ist es gelungen, komplizierte
Forschungsgegenstände wissenschaftlich
und anschaulich darzustellen
– und Ihnen eine interessante
Lektüre zu ermöglichen.
Wir wünschen Ihnen viel Spaß
beim Lesen!
Prof. Dr. Ludwig Mochty
Lehrstuhl für Wirtschaftsprüfung,
Unternehmensrechnung und
Controlling
Prof. Dr.-Ing Andreas Kempf
Vorstand des Center for Computational
Sciences and Simulation
Lehrstuhl für Fluiddynamik, Institut
für Verbrennung Gasdynamik
oben: Ludwig Mochty, unten: Andreas Kempf. Foto: Vladimir
- Veröffentlicht am Freitag 15. November 2024 von Universität Duisburg - Essen SSC
- ISBN: 9783934359505
- 134 Seiten
- Genre: Loseblatt-Ausgabe, Natur, Naturwissenschaft, Sachbücher, Technik, Zeitschrift