Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

Die digitale Simulation auf dem Rechner ersetzt das reale Experiment:


07.04.1989 - 

Der Supercomputer berechnet Motorkolben

Computer in der technischen Anwendung haben bei der Stuttgarter Kolbenbaufirma Mahle Tradition. Als Mitte der 60er Jahre der Schiffsboom ausbrach mit immer höheren Tonnagen und stärkeren Motoren, war dies für Mahle der Beginn, Strukturuntersuchungen an Kolben nicht mehr nur rein empirisch durch Messen durchzufahren, sondern das Material- und Temperaturverhalten mit den damals aufkommenden Flutte-Elemente-Programmen voraus zu berechnen.

Und wie ein Streifzug durch die noch junge Rechnergeschichte klingt die Reihe der bei Mahle eingesetzten Maschinen: angefangen von einer PDP-8 von Digital Equipment vor fast genau 20 Jahren bis hin zum neuesten Superrechner, geliefert Ende letzten Jahres - eine Trace 14/300 des Herstellers Multiflow. Leistung: rund 100 Millionen Rechenoperationen in der Sekunde. Das verwendete FEM-Programm ist TPS10 des Reutlinger Softwarehauses T-Programm.

Dazwischen liegen IBM 360/30 und 360/60, die sich tagsüber Buchhalter und nachts die Techniker teilten. Dann PDP-1 1/40. Und um die Jahreswende 1978/79 der erste VAX-Rechner von Digital Equipment im süddeutschen Raum, die legendäre VAX-11/780, Inbegriff des großen Industrierechners seiner Tage. Auch heute wird dieser Typ allgemein noch als vergleichender Leistungsmaßstab herangezogen. War diese Maschine doch der erste Industriecomputer überhaupt, der eine Million Rechenoperationen in der Sekunde (1 MIPS) verarbeiten konnte. Das ist gerade zehn Jahre her.

Auch die VAX reichte wenige Jahre später schon nicht mehr aus. 1984 folgte eine FPS-164 von Floating Point Systems von etwa zehn MIPS Leistung, mit der vorhandenen 11/780 als Front-End-Rechner. Auch diese Lösung ist mittlerweile überholt.

Ende letzten Jahres nun begann für die Stuttgarter mit einer Trace 14/300 der Einstieg ins Supercomputing. Mit ihren 100 Millionen Rechenoperationen in der Sekunde fällt die Trace in die Gruppe der sogenannten Mini-Supercomputer. Preiskategorie: rund 800 000 Mark. Entwickelt von dem amerikanischen Hersteller Multiflow, einem 1984 gegründeten Venture-Unternehmen, wird die Trace in der Bundesrepublik über die Aachener Daimler-Benz-Beteiligung und AEG-Tochter GEI Rechnersysteme vertrieben und zum Teil auch in Aachen montiert.

Ein Größenvergleich, der die allgemeine Preis/Leistungs-Entwicklung verdeutlicht, ist hierbei durchaus interessant. Rund zehn Jahre nach der VAX-11/780 kostet eine 100mal schnellere Maschine bei gleicher Größe immer noch den selben Betrag. Dabei hat sich die Datengenauigkeit von seinerzeit 16 Bit Breite um den Faktor vier verbessert, auf 64 Bit. Und das hausinterne eigene Testprogramm bei Mahle, ein 5000 Knoten umfassendes räumliches FEM-Problem mit dynamischen Randbedingungen (ein Viertel-Kolben mit Pleuel-Lagerung), woran die VAX- 11/780 rund 53 Stunden rechnete, schafft die neue Maschine in 28 Minuten.

Obgleich Mahle als großer Automobilzulieferer auch für Daimler Benz fertigt, sei die weitläufige Zugehörigkeit der Aachener GEI als Vertreiber der Trace-Maschinen zum Daimler-Konzern (über die AEG) nicht Stimulanz für die Entscheidung gewesen, wie EDV-Gruppenleiter Rolf Grimm bei Mahle versichert. Entsprechend hatten sich auch die Hersteller Alliant (X-40), Convex (C-210) und Multiflow/GEI (Trace 14/300) in Stuttgart die Klinke gegenseitig in die Hand gegeben. Angekommen sei es vielmehr auf den Durchsatz und den Nachweis schriftlich garantierter Werte.

Und noch ein Punkt käme hinzu: Die Datenstruktur des Softwareprogramms TPS 10 sei nur wenig vektorisierbar. Doch aufgrund ihres Compilers und der Technik des Very-Longinstruction-Word (VLIW) sei die Trace besonders für derartige Codestrukturen geeignet. Ein Compiler, der Programme ohne vektorisieren zu müssen übernimmt, sondern durch die quasi parallele Verarbeitung im langen Instruktionswort die hohe Geschwindigkeit erreicht. Grimm, der überwiegend "klassische Anwendung" auf vorhandener Software fährt und nur selten eigene Programmteile entwickelt, glaubt mit diesem VLIW-Compiler die bessere Alternative gewählt zu haben.

Wie gut oder schlecht sich Software vektorisieren läßt, sei auch nach Ansicht von Dr. Ernst Schrem von der Stuttgarter Ingenieurgesellschaft für Technische Software INTES ein Problemfeld, das die meisten der heute am Markt befindlichen FEM-Programme aus der Zeit der 60er und 70er Jahre betrifft. Doch rät Schrem Anwendern davon ab, am Programmcode zu tunen, da sonst die Lizenzgarantie erlischt.

Bei Mahle steht die Trace zusammen mit der alten 11/780 und mehreren MicroVAXen und über Ethernet untereinander verbunden als autarke Rechenpower in der Abteilung Forschung und Entwicklung. Für die grafische Wiedergabe hängen drei Evans & Sutherland-Terminals am Netz. Davon losgelöst läuft die gesamte kommerzielle EDV mit Buchhaltung, Auftragsabwicklung und Stücklistenwesen auf einer Comparex-Maschine 4050. Zahl der angeschlossenen Alpha-Terminals: rund 500. Auch CAD erfolgt auf diesem Zentralrechner, mit CATIA als Software und IBM-5080-Bildschirmen. Einen Netzverbund zwischen beiden Rechenzentren gibt es derzeit noch nicht.

Auslöser für die in den letzten Jahren allgemein ansteigende Nachfrage nach immer höherer Rechenleistung in der technischen Anwendung sind verschärfter Wettbewerb in vielen Märkten. Denn Unternehmen, die ihre Produkte schneller entwickeln und durch zerstörungsfreie Methoden bereits in der Entwicklungsphase durch Simulationstests optimieren können, gewinnen gegenüber ihren Wettbewerbern kostbaren Zeitvorsprung.

Im Widerspruch zum technischen Selbstverständnis stehen die Forderungen der Automobilhersteller allemal: Bei immer größerer Leistungsdichte der Motoren sollen die Kolben so leicht als möglich sein - und kurz dazu. An kurzen und dünnwandigen Kolben jedoch konzentriert sich ungleich extremer ein thermisches und mechanisches -Belastungsspektakel, dessen Beherrschung, zwischen Temperaturschocks und Dauerlastbedingungen, mit empirischem Wissen alleine nicht mehr beizukommen ist.

Obwohl fast jede der im Auftrag hergestellten Kolbenbaureihen anders aussieht, bleibt für die Konstrukteure wenig grundsätzlicher Spielraum.

Spannungsoptische Untersuchungen am durchsichtigen Kunststoffmodell, wie sie zur Belastungsverteilung in komplizierten Bauteilen gerne verwendet werden, greifen nur solange, wie thermische Randbedingungen außer acht bleiben. Doch wie sieht die Spannungsverteilung und die Verformung an den allgemein als hoch belastet geltenden Stellen unter großer Temperatureinwirkung aus? Ohne simulierte Wirklichkeit, mit Software und schnellem Rechner, geht da heute nichts mehr. Während Fahrzeugkolben ihre Tauglichkeit schlußendlich dann immer noch im Härtetest auf dem Prüfstand unter Beweis stellen, sind solche Versuchsreihen für Kolben von der Größe einer mittleren Tonne, etwa für viele tausend Kilowatt leistende Schiffsdiesel, aus rein wirtschaftlichen Gründen völlig ausgeschlossen. Bei den sehr individuell gestalteten Großkolben mit nur geringer Stückzahlauflage muß jeder Entwurf und jedes fertig bearbeitete Teil absolut sitzen. Lange Versuchsreihen auf dem Prüfstand sind bei diesen Dimensionen und aus Gründen der Zeit längst nicht mehr möglich.

So verschlangen die Experimentalkosten in früheren Jahren enorme Geldsummen. Allein die Treibstoffkosten für nur einen einzylindrigen Testmotor mit 1500 Kilowatt Kolbenleistung summierten sich bei einem tausendstündigen Testlauf auf gut 100 000 Mark. Hinzu kam die Absicherung gegen satte Gewährleistungsforderungen für den Fall eines späteren Kolbenschadens auf See, wodurch Schiff und Ladung für geraume Zeit festliegen würden.

Auch die Abnahmebedingungen haben sich mit den Möglichkeiten der Rechnertechnik verändert. Galten früher noch spannungsoptische Bilder, Dehnungs- und Temperaturmessungen am laufenden Kolben als Abnahmetest, so verlangt heute jeder Auftraggeber als Standardnachweis für die Zuverlässigkeit solcher Großkolben vom Hersteller eine Finite-Elemente-Berechnung. Denn solche Berechnungen mit der Finite-Elemente-Methode (FEM) berücksichtigen dabei auch sich ändernde Materialfestigkeiten am Kolben, die sich durch Temperatureinwirkung ergeben. Und auch wie sich die Wärmeverteilung im Kolben beim jeweiligen Betriebszustand einstellt, beispielsweise unter Voll- oder Teillast, läßt sich mit heutiger Software exakt vorherberechnen. Noch vor gut 20 Jahren waren solche FEM-Berechnungen eines Bauteils nicht nur grob und ungenau, sondern auch mühselig und umständlich. So entstand die gitternetzförmige Struktur der Finiten Elemente als möglichst große Zeichnung zunächst auf Millimeterpapier mit Bleistift. Mühsam wurde über Tastatur jeder dieser Werte von Hand auf Magnetband übertragen. Das zurückgebrachte Resultat, auf einer Univac 1108 an der Stuttgarter Universität berechnet, waren große Stapel an Papier mit langen Zahlenkolonnen.

Heute ist das Ergebnis von FEM-Berechnungen nicht nur in Minuten parat, oder bei komplexen und aufwendigen Analysen und mehreren Rechenläufen in zwei, drei Stunden, sondern auch als verschiedenfarbige Darstellungen auf dem Bildschirm zu betrachten. Je nach Definition entsprechen diese Farben beispielsweise unterschiedlichen Belastungen oder Temperaturen.

*Bernhard Rose ist freier DV-Fachjournalist in Landsberg/Lech.