Kontakt
QR-Code für die aktuelle URL

Story Box-ID: 28731

Silicon Graphics International Werner-von-Siemens-Ring 1 85630 Grasbrunn, Deutschland http://www.sgi.de
Ansprechpartner:in Dr. Gernot Schaermeli +49 89 461080
Logo der Firma Silicon Graphics International
Silicon Graphics International

SGI installiert am Leibniz-Rechenzentrum neuen Nationalen Höchstleistungsrechner mit 69 TeraFlops

SGI-Altix-System mit mehr als 6,000 Intel-Itanium-Prozessorkernen wird dem LRZ einzigartige Einsatzflexibilität bringen

(PresseBox) (München, )
Das Leibniz-Rechenzentrum (LRZ) der Bayeri­schen Akademie der Wissenschaften (BAdW) in München hat sich im Zuge der Moder­ni­sierung, Erweiterung und Vereinheitlichung seiner System-Infra­struktur in den oberen Ebenen seiner angebotenen Leistungs­pyra­mide für Compu­­ting-Lösungen von SGI entschieden. Das Unter­neh­men wurde beauf­tragt, sowohl den neuen Nationalen (Deutschland weit genutzten) Höchstleis­tungs­rechner wie auch den Hauptteil des neuen Landes-Hoch­leis­­tungs­rechners zu liefern. Beide Lösungen basieren auf der einzigartig skalierenden ccNUMA-Systemarchitektur SGI® NUMAflex (tm), auf 64-Bit-Linux® und den neuesten Intel-Itanium®-Prozessoren.

Die Neubeschaffung wird dem LRZ erlauben, die akademische Nutzer­gemeinde bei den immer anspruchvolleren und zahlreicheren Simulationsproblemen aus Physik und Astrophysik, Material­­forschung, Strömungsdynamik, Chemie, Geo- und Biowissen­­schaften auch in Zukunft mit schneller State-of-the-art-Techno­logie und ausreichender Kapazität zu unterstützen. Gleichzeitig erschließt die SGI-Lösung neue Möglich­keiten, um Nutzer auch verstärkt aus andereren aufstrebenden Berei­chen wie dem weiten Feld der LifeSciences auf die Simulationsplattform zu führen.

Als zukünftige LRZ-Spitzenplattform wird SGI in mehreren Ausbau­stufen ein SGI®Altix-Nachfolgesys­tem mit 6,656 Itanium-Prozes­sorkernen, einem 40 TeraByte großen, einzigartig einheitlich nutzbaren Arbeits­spei­cher (Memory) sowie 660 TeraByte Platten­speicher (Storage) installieren. Das System soll Anfang 2006 unter dem Namen HLRB-II (´Höchstleistungsrechner in Bayern´) in Betrieb gehen und dann die derzeitige Top-Plattform des LRZ ablösen - ein Hitachi-SR8000-System, auf dem heute mehr als 200 anspruchsvolle Projekte von Forschern und Wissen­schaft­lern aus ganz Deutschland laufen. Bei einer theore­ti­schen Peakleistung von letztlich 69 TeraFlops (69 Billionen Rechen­operationen pro Sekunde) wird das SGI-System die 30-fache Performanz des Vorgängers bieten.

Entschieden hat sich das LRZ für das SGI-System, weil es unter den wett­be­wer­­benden Angeboten gemäß umfassender Benchmark-Tests die höchste Applikationsleistung erwarten lässt - d.h. die höchste dauer­hafte Leistung im praktischen Einsatz, unter dem Programm-Mix der realen Anwen­dungs­­welt. Aufgrund der Beson­der­heiten der SGI-Lösung - ein großer, einheitlich addressier­barer Arbeitsspeicher sowie die variable Partitionierbarkeit des Systems in virtuelle Rech­ner­knoten der unterschiedlichsten Größen - verschafft sich das LRZ zugleich einen Höchstleistungsrechner, der die Program­mierung von parallel ablaufenden Codes deutlich vereinfacht und dem LRZ eine bisher nicht gekannte Einsatzflexibilität bietet. Auf der Plattform können höchstperformant Programme laufen, die für Distributed-Memory-Systeme geschrieben sind (MPI), die für Shared-Memory-Systeme geschrieben sind (OpenMP) oder die - als Hybrid-Codes - die Programmierparadigmen beider Architekturtypen kombinieren.

Der Zuschlag für den HLRB-II erfolgt nach einer europaweiten Ausschreibung. Die Investitions­kosten teilen sich der Bund und der Freistaat Bayern. Die Betriebs­kosten trägt das Land alleine.

Im Rahmen der Neubeschaffung des Landes-Hochleistungsrechners, der aus einem abzulösenden Fujitsu-Siemens-Vector-System besteht, wird das Unterneh­men ein SGI®-Altix-Bx2-System mit 128 Itanium2-Prozessoren, 512 GigaByte Memory und 11 Tera­Byte Storage liefern. Dieses System wird beim LRZ dediziert als Shared-Memory-Plattform verwendet. Hauptsächliche Applikationen werden aus der Quantenchemie, Physik und Strömungsmechanik erwartet. Die Installation dieses neuesten derzeit verfügbaren Altix-Systems ist für Anfang 2005 geplant. Es wird ausgestattet mit Intels jüngsten Itanium2 6M-Prozessoren (6 MB Cache, 1,6 GHz).

Die Lieferung des Altix-Bx2-Systems erfolgt im Zuge eines sepa­raten Vertrags, getrennt von der HLRB-II-Beschaffung.




Innovationsspirale - Differenzierung für den internationalen Standort

Das LRZ ist eines der drei Höchstleistungsrechenzentren in Deutschland. Bei der Neubeschaffung ihrer Spitzenplattform wechseln sich die Zentren heute reihum ab, wodurch den Nutzern in kurzen Abständen von nur zwei Jahren immer wieder Top-Innovationen zur Verfügung stehen.

Prof. Dr. Heinz-Gerd Hegering, Vorsitzender des Direktoriums des Leibniz-Rechen­zentrums: "Das LRZ unternimmt erhebliche Anstrengungen, um die akademische Gemeinde in Deutsch­land und Europa beim Hoch- und Höchst­leistungs­rechnen zu begleiten. Mit dem System von SGI werden wir eine gewaltige Steigerung unserer Rechenkapazität in diese Innovationsspirale der drei Zentren einbringen. Gleich­zeitig kann sich das LRZ mit ihm klar differenzieren. Seine Besonderheiten - die inno­vative Nutzbarkeit des einheit­lich adressbierbaren Hauptspeichers und die flexible Partitio­nier­­barkeit des Systems - bieten auch qualitativ ganz neue Perspektiven für das Höchstleistungs­rechnen. In Form des SGI-Systems wird das LRZ seinen Nutzern in München, Bayern, Deutschland und darüber hinaus eine hochmoderne Plattform zur Verfügung stellen, mit der sie wachsende Computing-Herausfor­derungen wirkungs­voll in Angriff nehmen."

Steve Coggins, SGI, VP und General Manager EMEA: "Die Verfügbarkeit von Höchstleistungsrechnern hat sich zu einem entscheidenden Standortfaktor im internationalen Wett­bewerb entwickelt. Bei der Suche nach einer kosten­effi­zienten, schnell einzurichtenden Super­compu­ting-Plattform, auf der sich Wissen­schaft und Forschung in die Zukunft führen lassen, entscheiden sich mehr und mehr Kunden für SGI-Altix-Systeme. Wir sind stolz, dass das LRZ in München unser Altix-System sowie SGI®InfiniteStorage-Lösungen wählte, um die HPC-Umgebung zu inno­vieren. Ich bin überzeugt, dass das LRZ damit seine Position zu einem der führenden Höchstleistungszentren in Europa ausbauen wird."

Abhi Talwalkar, Intel, Vice-President and General Manager Enterprise Platforms Group: “Erst kürzlich gratulierte Intel SGI zur Realisierung des Columbia-Rechners bei der NASA, der mit 42 TeraFlops die Nummer 2 in der aktuellen Top500-Super­computerliste ist. Jetzt freuen wir uns über die bevorstehende Installation eines noch mächtigeren Systems, beim LRZ in München. SGI setzt, mit Unterstützung von Intel, neue Maßstäbe im Höchstleistungsrechner-Bereich - nicht nur bei der Anwendungs­leistung, sondern auch bei der Integration von 512 oder sogar noch mehr Itanium Prozessoren in einem Shared-Memory-Großknoten."


Das Anwendungsspektrum der "Kunden", die auf dem HLRB-II Höchstleistung abfragen werden, ist umfang­reich: Eingesetzt wird der neue Rechner vor allem für die Simulation komplexer Systeme und Prozesse in der Physik, Materialforschung, Strömungsmechanik (Computational Fluid Dynamics, CFD), Astrophysik, Chemie sowie in den Geo- und Biowissen­schaften.

Beispiele hierfür sind die Untersuchung der Turbulenz, die Strömung in porösen Gebilden, das Zusammenwirken von Strömungen und deformierbaren Strukturen, die Entstehung und Ausbreitung von Schall, die Supraleitung bei hohen Tempera­turen, die Erforchung von Materialien mit Formgedächtnis, die Analyse chemischer Reaktionen bei Verbrennungs- und Katalyseprozessen, die Ausbreitung von seismischen Wellen und Erdbeben sowie Fragestellungen der Proteomik, wo Beziehungen zwischen Sequenz, Struktur und Funktion der Proteine untersucht werden. Die Top-Ressource wird nur nutzen können, wer für sein Projekt die positive Begutachtung eines Expertengremiums erhält.

Robert Übermesser, SGI, EMEA, Director in Strategic Projects HPC: "Die Leistung des beauftragten SGI-Altix-Systems liegt deutlich über allen derzeit in Europa installierten Höchstleistungsrechnern. Mit seinen 69 Tera­Flops würde das System heute in der Top500-Supercomputer-Liste sogar den Platz 2 einnehmen. Das LRZ wird für den steigenden Rechenbedarf ihrer extrem anspruchsvollen Nutzer sehr gut gerüstet sein."


HLRB-II - 100 Racks mit neuester Dual-Core-Technologie - Die Ausbaustufen

Der HLRB-II wird in dem neuen Rechenzentrumsgebäude eingerichtet, welches des LRZ im Campus in München/Garching bezieht. Wenn das System komplett ausgebaut ist, wird es aus über 100 Racks bestehen, dicht bepackt mit Prozes­soren, Memory und Festplatten, an die 100 Tonnen wiegen und eine Stand­fläche von etwa 250m2 einnehmen. Die Leistungaufnahme für Betrieb und Lüftung wird auf knapp 1 MegaWatt taxiert. Wasserkühlung ist nicht erforderlich, das System wird auf einem 2m hohen Unterboden stehen, der für hohen Luftdurchsatz ausgelegt ist.

Die Installation der Produktionsmaschine wird sich in 2 Stufen vollziehen, so dass einerseits der Hitachi-Rechner im Mai 2006 nach über 6 Jahren Laufzeit plan­gemäß abgeschaltet werden kann, andererseits dem HLRB-II weitere nachfolgende Technologie-Innovationen zugute kommen. SGI stattet die Produktionsmaschine mit Dual-Core-Prozessor-Techno­logie der kommenden Itanium-Generation aus, bei der Intel auf einem Chip zwei Prozessorkerne integriert. Entsprechend Intel´s Roadmap für die Verfügbarkeit kommender Varianten soll der LRZ-Höchstleis­tungs­rechner, nach Aufrüs­tung und Upgrading auf die letzte Ausbaustufe in 2007, letztlich ein System sein, das mehrere Tausend gleiche, modernste Itanium-Chips mit Doppel-Prozessor­kernen umfasst.

In der ersten Ausbaustufe Anfang 2006 wird der HLRB-II mit 5,120 Itanium-Prozessor-Kernen zunächst eine theore­ti­sche Peakleis­tung von 33 TeraFlops bieten, verglichen mit den augenblicklichen 2 TeraFlops der Hitachi-Maschine. Der Hauptspeicher wird 2006 von gegenwärtigen 1,3 TeraByte auf 20 TeraByte anwachsen, der Plattenspeicher von 10 auf 340 TeraByte.

Vorab, Mitte 2005, installiert SGI am LRZ ein Test- und Migrationssystem - mit 64 Itanium2-Prozessoren, 256 Arbeitsspeicher und 6 TeraByte Plattenkapazität. Es wird dem LRZ dazu dienen, zusammen mit den Nutzern Programme zu portieren, Codes für die SGI-Plattform zu optimieren und zu skalieren.

Dr. Horst-Dieter Steinhöfer, am LRZ Abteilungsleiter für Höchstleistungsrechner: "Der neue HLRB-II bietet uns und den Anwendern eine Vielfalt neuer Einsatz­varianten und Freiheiten, um mit optimalen Programmierkonzepten zu arbeiten. Mit der Test-Maschine können wir zukünftige Möglichkeiten bereits im Vorfeld ausloten und die Codes gut vorbereiten, so dass wir dann mit Installation der ersten Teile der Produktions­maschine sofort produktiv rech­nen können. Dass eine solche große Maschine während des Auf- und Umrüstens zur Stufe2 im laufenden Betrieb arbeiten kann, ist wesentlich für eine Einrichtung wie das LRZ. Gespräche mit Kollegen bei NASA und SARA, wo SGI bereits vielbeachtete Altix-Installationen mit 1000en bis zu über 10.000 Prozessoren realisierte, haben uns in der Überzeugung bestärkt, dass das Unternehmen innovative Supercomputer-Technologie nicht nur entwickelt, sondern diese in großen Projekten beim Kunden auch schnell zum Einsatz bringen kann."

Kriterium Nr1: Investition in Anwendungsleistung

Mit Abstand entscheidendes Kriterium für die Neubeschaffung des Höchstleis­tungs­rechners war für das LRZ, welche Applikationsleistung die neue Maschine erwarten lässt - d.h. welche dauer­hafte Leistung im praktischen Einsatz, unter dem Programm-Mix der realen tagtäglichen Anwen­dungs­­welt das System für die vorge­ge­bene Investions­summe zu bringen vermag.

Um die wettbewerbenden Angebote zu bewerten, erstellte das LRZ eine umfas­sende Suite von Benchmark-Tests, die repräsentativ sind für das Mix der den HLRB hauptsächlich forderden Applikationen. Die Test-Suite bestand aus

* einer Large-Eddy-Simulation (Stömungsdynamik, CFD, klassisch, mit Gittern)

* einer Lattice-Boltzmann-Applikation (CFD, neuerer Ansatz über Partikel-Stöße)

* einem Quanten-Chromodynamik-Programm

* einem Programm aus der Astrophysik

* einem Programm aus der Hochenergiephysik

* einem Programm aus der Quantenchemie

sowie aus diversen Kernels - Kern-Aufgaben, die bei Parallel-Program­men in großer Zahl als Basisroutinen und Standardprozeduren vorkommen (wie Fourier-Analysen, Matrix-Multiplikationen udglm). Die Benchmark-Suite testete die Leistungsfähigkeit der Plattform sowohl für Parallelverarbeitungs-Codes, die für Distributed-Memory-Architekturen (wie Cluster) geschrieben sind (MPI), wie auch solche, die für Shared-Memory-Architekturen programmiert sind (OpenMP).

Dr. Matthias Brehm, beim LRZ Leiter der HighPerformance-Computing Gruppe: "Die ccNUMA-Plattform von SGI hat in 5 der 6 Anwendungsbenchmarks die höchste Leistung gebracht und sich in der Aggregierten Gesamtleistung als die beste im Wettbewerb der Angebote erwiesen. Neben der Verarbeitungsleistung haben wir gezielt auch die interne Kommunikationsleistung und die I/O-Leistung geprüft. Auch hier zeigte sich SGI Altix mit ihrer hohen Bandbreite, die mit dem Systemausbau mitwachsen kann, als führende Plattform. Die Maschine liegt bei dem Benchmark-Mix weit vorne, sie skaliert gut und sie ist darüber hinaus auch noch flexibel nutzbar."


512 ... 1024 Kerne im Großknoten - Flexible Partitionierbarkeit

SGI ist mit den ccNUMA-Systemen SGI®Altix der branchenweit anerkannte Technologie- und Innovationsführer wenn es um die Skalierbarkeit von Linux-basierten Shared-Memory-Systemen geht - d.h. um Systeme, die man unter einer einzigen Instanz des Betriebs­systems (im Single-System-Image (SSI)) fahren kann und deren Prozessoren das gesamte installierte Memory als einen einzigen großen, zusammend erscheinenden Arbeitsspeicher adressieren können.

Seit Erscheinen der Altix-Plattform Anfang 2003 hat SGI die zugrunde liegende Systemarchitektur SGI®NUMAflex inklusive der systemnahen Software schritt­weise erweitert und die Skalierbarkeit der 64-Bit-Linux-Plattform gesteigert: von anfangs 64 Prozessoren, die unter einer Linux-Partition laufen, auf 128, auf 256, die heute standardmäßig verfügbar sind - und soeben auf die 512, so wie sie jetzt im kürzlich installierten Columbia-Rechner der NASA entstehen.

Die 512 SSI-Prozessoren bei der NASA sind eine spezielle kundenspezifische Entwicklung. Das SGI-Altix-System, welches das LRZ erhält, wird von den Bemü­hungen des Unternehmens, die Grenzen des Machbaren ständig auszu­dehnen, profitieren. Mit seinen weiteren Architekturverbesserungen wird es dem LRZ erlauben, standardmäßig bis zu 512 oder möglicherweise sogar bis zu 1024 Prozes­sor­kerne im SSI-Betrieb zu fahren - dh. auf der Maschine Partitionen zu bilden, die in einem Shared-Memory-Großknoten 512 oder sogar 1,024 Prozessor­kerne zur Verfügung stellen.

Gleichzeitig ist SGI-Altix eine Plattform, auf der ebenso Programme, die für Distributed-Memory-Systeme geschrieben sind (MPI-Codes), höchst performant ablaufen. Mit höherer Geschwindigkeit, als auf einem Cluster-System. Grund ist die hohe Kommunikationsleistung, die die Plattform dank ihrer architektur-internen Vernetzungstechnologie NUMAlink bietet.

NUMAlink vernetzt die physikalisch verteilten Basisbausteine (Kleinknoten mit 2 Prozessoren und lokalem Memory) so, dass Zugriffe mit hoher Bandbreite und geringer Latenzzeit erfolgen - und diese Eigenschaften auch erhalten bleiben, wenn das System weiter ausgebaut wird: Die Bandbreite des SGI-Systems wächst mit seinem Ausbau mit.

Mit diesen beiden technologieführenden Fähigkeiten - Shared-Memory-Großknoten bis zu 512 Prozessorkernen sowie die hohe interne Kommunikationsleistung auch für Distributed-Memory-Computing - wird das SGI-System für das LRZ eine Platt­form bilden, welche der Betreiber und die Anwender in einzigartig flexibler Weise nutzen können.

Matthias Brehm: "Wir können auf dem System sehr variabel SSI-Partionen mit 64, 128, 256, 512 oder 1,024 Prozessorkernen einrichten und Anwendern die Möglich­keit eröffnen, auch mehrere solcher Shared-Memory-Großknoten unter Hybrid-Codes im Zusammenspiel zu nutzen. Solche Programme, die Distributed-Memory- mit Shared-Memory-Processing verbinden, sind bei LRZ-Anwendern beliebt. In Zukunft können sie statt mit 64x 8 auch mit 4x 128 oder 2x 256 Prozessoren rechnen und die vorteilhafteste Konfiguration für ihre Simulation wählen. Es sind hier die ver­schie­densten Konfigurationen denkbar, bis hin zu solchen, die mehrere 512er- oder eventuell 1,024er-Knoten kombi­nieren. Das Schöne dabei: Die Aufteilung der riesigen Maschine erfolgt nur virtuell, die Partitionierung ist schnell änderbar, das Umkonfigurieren erfolgt ohne Umka­beln - der Nutzer kann letztlich selbst festlegen, in welcher Aufteilung er die für ihn verfügbare Höchstleistungsressource am besten nutzt."

Parallel-Verarbeitung auf Shared-Memory-Großknoten höchster Prozessorzahl wird für LRZ und Nutzer eine neue Herausforderung darstellen, gleichzeitig aber auch neue Anwendungs­felder anziehen.

"Wir denken, dass man heute 512 Prozessoren gut im Griff hat für Applikationen," erklärt Dr. Brehm, "1024 Cores zu benutzen, ist immer noch eine Herausforderung. Wir haben getestet, dass Applikationen bis zu 2,048 Prozessoren skalieren und wollen letztlich dazu kommen, 1,024 standardmäßig gut zu beherrschen. Die Flexibilität der Systempartionierbarkeit erlaubt, uns schrittweise an eine optimale Nutzung des HLRB-II heranzuarbeiten. Zugleich erlaubt uns das SGI-System, Höchstleis­tungsrechner-Kapazität auch für neue Anwendergruppen zu erschließen."

Während etwa Astrophysiker oder Strömungsmechaniker Supercomputer seit Erfindung einsetzen und sich schon seit Jahrzehnten mit schwierigsten Parallel­programmier-Methoden auseinan­der setzen, ist es für viele aufstrebende andere Forschungs­felder wie etwa die Lebens­wissenschaften unabdingbar, dass der Nutzer einen Supercomputer sofort auf möglichst unkomplizierte Weise nutzen kann.

"Eine Shared-Memory-Partition bietet dies", so Brehm. "Programmieren ist einfa­cher. Es bieten sich hier hochattraktive Einsatz­konzepte, die ideal Gebrauch machen können von dem 40 TeraByte großen Arbeitsspeicher: Man denke nur an die enor­men Datenbanken, die in der Genomik und Proteomik gegeneinander abgeglichen werden müssen. Wenn Datamining komplett im schnellen Memory stattfindet, ohne Zugriff auf Festplatte, lassen sich gewaltige Beschleunigungen erzielen."


Durchgängige Intel-basierende Leistungspyramide

Die beiden SGI-Systeme, die das LRZ für die obere und die mittlere Ebene seiner Leistungs­pyramide beschafft, bringen der Einrichtung nicht nur mehr Performanz und neue Nutzungsmöglichkeiten, sie erlauben ihr auch, die Ressourcenlandschaft weiter zu vereinheitlichen.

Die SGI-Lösungen für den neuen Höchstleistungsrechner und für den neuen Landes-Hochleistungsrechner sind Plattformen, die auf dem Industriestandard Linux basieren und in ihre ccNUMA-Architektur mit den Itanium-Prozessoren auch CPU-seitig Industriestandard-Technologie integrieren. Beide Maschinen werden Vorgänger-Systeme ersetzen, die nicht mit Linux und der Itanium-Architektur arbeiten.

Auf der unteren Ebene der Pyramide betreibt das LRZ ein Cluster-System, das bereits unter Linux betrieben wird und mit insgesamt rund 250 Intel-Prozes­soren (IA32 und IA64) ausgestattet ist. Das Cluster - seine Knoten enhalten 2 bis 4 Prozessoren - setzen die Nutzer am LRZ für verschiedenste sequentielle und parallele Programme hauptsächlich im Durchsatzbetrieb.

"Die SGI-Maschinen werden sich praktisch nahtlos in die Infrastruktur einfügen", erklärt Mathias Brehm. "Nach Installation der beiden Rechner kann das LRZ eine auf Intel-Itanium basierende durchgängige Leistungspyramide anbieten. Vom Dual- und Quad-Prozessor-Knoten der Cluster über die 128-Prozessor-Shared-Memory-Umgebung des Landes-Hochleistungsrechners bis zur 512- oder 1,024-Prozessor-Partition auf dem HLRB-II. Wir erwarten erhebliche Synergien, die bei dieser Durchgängig­keit frei werden. Die Anwender können sich der gleichen Programmierwerkzeuge bedienen, die gleichen Bibliotheken verwenden, die gleichen Tools einsetzen. Wer mit seinem Projekt wächst, wird es beim Aufstieg zur nächst höheren Ebene einfacher haben."

Zusatzinformation der Unternehmenszentrale Silicon Graphics Inc. (SGI) in Mountain View, Kalifornien:

The aggregate revenue to SGI for hardware and services under the contract is antici­pated to be in excess of $50 million, the bulk of which will not be recognized until 2007.



Safe Harbor Statement

This news release contains forward-looking statements that are subject to risks and uncertainties that could cause actual results to differ materially from those described in such statements. The reader is cautioned not to rely unduly on these forward-looking statements, which are not a guarantee of future or current performance. Such risks and uncertainties include long-term program commitments, the possibility that the customer may not accept the final product, the performance of third parties, the sustained performance of current and future products, the ability to integrate and support a complex technology solution, the timely availability of third-party technology, component availability and other risks detailed from time to time in the company's most recent SEC reports, including its reports on Form 10-K and Form 10-Q. Silicon Graphics undertakes no obligation to publicly update or revise any forward-looking statements, whether changes occur as a result of new information, future events or otherwise.


Die Bayerische Akademie der Wissenschaften wurde 1759 in München mit dem Auftrag gegründet, „alle Sachen mit Ausnahme der Glaubenssachen und politischen Streitigkeiten ... zu Gegenständen der Untersuchung zu nehmen“. Mit über 300 hauptamtlichen Mitarbeitern und einem Jahresetat von rund 32 Mio. Euro ist sie heute die größte der insgesamt sieben wissenschaftlichen Akademien in der Bundesrepublik. Ihr Schwerpunkt sind interdisziplinäre Grundlagenforschung und langfristig angelegte Forschungsprojekte im geisteswissenschaftlichen und naturwissenschaftlichen Bereich.

Weitere Informationen: www.badw..de


Das Leibniz-Rechenzentrum (LRZ) ist eine Einrichtung der Kommission für Informatik der Bayerischen Akademie der Wissenschaften. Heute sind dort ca. 150 Mitarbeiter beschäftigt. Als modernes Dienstleistungsunternehmen ist das LRZ wissenschaftliches Rechenzentrum für die Universitäten in München und die Bayerische Akademie der Wissenschaften, Zentrum für technisch-wissenschaftliches Hochleistungsrechnen, und Zentrale für die Archivierung großer Datenmengen. Es ist verantwortlich für Planung, Ausbau und Betrieb des Münchner Wissenschaftsnetzes und ist Kompetenzzentrum für Datenkommunikationsnetze.

Weitere Informationen: www.lrz.de.
Für die oben stehenden Storys, das angezeigte Event bzw. das Stellenangebot sowie für das angezeigte Bild- und Tonmaterial ist allein der jeweils angegebene Herausgeber (siehe Firmeninfo bei Klick auf Bild/Titel oder Firmeninfo rechte Spalte) verantwortlich. Dieser ist in der Regel auch Urheber der Texte sowie der angehängten Bild-, Ton- und Informationsmaterialien. Die Nutzung von hier veröffentlichten Informationen zur Eigeninformation und redaktionellen Weiterverarbeitung ist in der Regel kostenfrei. Bitte klären Sie vor einer Weiterverwendung urheberrechtliche Fragen mit dem angegebenen Herausgeber. Bei Veröffentlichung senden Sie bitte ein Belegexemplar an service@pressebox.de.
Wichtiger Hinweis:

Eine systematische Speicherung dieser Daten sowie die Verwendung auch von Teilen dieses Datenbankwerks sind nur mit schriftlicher Genehmigung durch die unn | UNITED NEWS NETWORK GmbH gestattet.

unn | UNITED NEWS NETWORK GmbH 2002–2024, Alle Rechte vorbehalten

Für die oben stehenden Storys, das angezeigte Event bzw. das Stellenangebot sowie für das angezeigte Bild- und Tonmaterial ist allein der jeweils angegebene Herausgeber (siehe Firmeninfo bei Klick auf Bild/Titel oder Firmeninfo rechte Spalte) verantwortlich. Dieser ist in der Regel auch Urheber der Texte sowie der angehängten Bild-, Ton- und Informationsmaterialien. Die Nutzung von hier veröffentlichten Informationen zur Eigeninformation und redaktionellen Weiterverarbeitung ist in der Regel kostenfrei. Bitte klären Sie vor einer Weiterverwendung urheberrechtliche Fragen mit dem angegebenen Herausgeber. Bei Veröffentlichung senden Sie bitte ein Belegexemplar an service@pressebox.de.