Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

29.03.1991 - 

Drug-Design zählt zu den rechenintensivsten Aufgaben

Supercomputer finden neue und wirksamere Medikamente

Bei der extrem aufwendigen Wirkstoff Findung setzt der Boehringer-Konzern seit kurzem auf die Hilfe von Number Crunchern. Mit zwei Doppel-Prozessor-Maschinen als "persönlichen Experimentierwerkzeugen" im Hintergrund läßt sich die Suche nicht nur beschleunigen. Angepackt werden können nun ganz neue Fragestellungen. Gernot Schärmeli berichtet, wie die Superrechner zur Medikamentenherstellung eingesetzt werden.

Die Forschung für immer neue und verbesserte Wirkstoffe kostet die Pharma-Firmen eine gewaltige Menge an Zeit und Geld. Zehn Jahre sind ein typisches Maß, bis eine Substanz auf den Markt gelangt. Zwar verschlingt die letzte Phase der klinischen Erprobung den eindeutig dicksten Brocken, doch was im eigentlichen Vorfeld passiert, ist strategisch noch bedeutungsvoller. Oft wird viele Jahre geforscht - und das Projekt dann eingestellt, weil man den Wirkstoff einfach nicht finden kann. Stehen die Aussichten für eine erfolgreiche Suche besser kommt es darauf an, schneller als der Wettbewerb zu sein. Ist die Konkurrenz früher fündig geworden, macht sie mit ihrem Patent sämtliche Hoffnungen zunichte. Schon seit langem gehen Bilder um die Welt, die Chemiker vor Farbgrafik-Bildschirmen zeigen, hantierend mit komplexesten Strukturen. Doch diese Art der Computerunterstützung ist eher vordergründiger Natur. Von größerer Bedeutung als die Darstellung von Ergebnissen ist das eigentliche Ringen um die Struktur.

Um es noch effizienter zu gestalten, begnügte sich der Boehringer-Konzern Ingelheim denn auch nicht nur mit einer Reorganisation der unternehmensweiten Forschungsaktivitäten nach Indikationsbereichen. Man gönnte sich zwei Minisuper-Rechner, um den Herausforderungen der nächsten Jahre gut gewappnet begegnen zu können. Seit etwa einem Jahr im Einsatz sind zwei Doppel-Prozessor-Maschinen vom Typ Convex C220 - eine in Ingelheim, eine in den USA. Die Europa-Maschine unterstützt die Aktivitäten der Ingelheimer KG (Atemwege/Zentralnervensystem) und der Biberacher Tomae (Blutdruck/Herz) - wozu sehr bald die Aufgaben des Wiener Bender-Instituts in Sachen Gentechnologie kommen werden sowie Aktivitäten einer Mailänder Tochter. Die US-Maschine fördert die Anstrengungen im New-York-nahen Richfield, wo man sich der Aids- und Immun-Forschung widmet. Wunderdinge werden vom Number-Cruncher-Einsatz nicht erwartet. Zu hoch ist nach wie vor das erforderliche Engagement der an den Forschungsgruppen beteiligten Chemiker, die die auf Wirkstoff-Eigenschaften zu trimmenden Varianten der Leitsubstanzen synthetisieren, sowie der Biologen, die die biologischen Tests austüfteln.

Eine stattliche Menge an Erfahrung ist hier gefordet. Dem dritten Beteiligten, dem Modelling-Spezialisten, steht mit den Minisupers aber nun ein wesentlich effektiveres Werkzeug zur Verfügung beim gemeinsamen Versuch, die interessanten Struktur-Wirkungs-Beziehungen herauszuarbeiten - bei der zentralen Frage, welche räumlich-physikalischen Eigenschaften welcher Strukturelemente eins Moleküls denn essentiell sind für die Bindung Substanz-Rezeptor.

Schier hoffnungsloses Tappen im Nebel

Das Alltagsproblem besteht darin, einen Schlüssel (Substanz) zu finden, der in ein Schloß (Rezeptor) paßt, worbei der Schlüssel so integriert werden muß daß der Rezeptor im Körper keine unangenehmen Nebenwirkungen auslöst. Dann ist die Substanz der gesuchte Wirkstoff. Der Schlüssel-Schloß-Vergleich ist allerdings an Banalität kaum zu überbieten. Die Realität - zumindest bislang - war ein schier hoffnungsloses Tappen im Nebel, ein Lotto-Spiel mit willkürlich ausgefüllten, wenn auch kunstfertig erstellen Wettscheinen.

Problem 1 : Die Gestalt des Rezeptors ist unbekant.

Problem 2 : Auch die reihenweise synthetisirten und im biologischen Test ausprobierten Schlüssel kann man sich nicht einfach anschauen.

Problem 3 : Selbst wenn man den "Bart" eines solchen Schlüssels anschauen könnte - man würde an ein und demselben Schlüssel feststellen, daß der Bart jedesmal unterschidlich ausgerichtet ist: Der Teufel stekt in der Flexibilität. An bestimmten Stellen haben die Moleküle quasi Gelenke, um die herum sich ganze Strukturteile drehen können. Bei gleicher Energie des Moleküls kann ein Drehwinkel zum Beispiel 90 oder auch 270 Grad sein, oder noch feiner abgestuft vorkommen. "Conformationen" nennen die Chemiker diese vielgestaltigen Erscheinungsformen.

Problem 4 : Schlüssel, deren Bart von der Gestalt her durchaus geeignet erscheinen, werden vomSchloß dennoch nicht akzeptiert, wenn der Bart eine abstoßende elektrische Landung trägt.

Problem 5 : Wenn Schlüssel und Schhloß zusammenpassen, deformiern sie sich. Beim Rezeptor ist die Deformation zur Weiterleitung der Wirkung ins Zellinnere ja das eigentlich Gewünschte. Beim Schlüssel aber kompliziert dies nur das Verständnis.

Bei der Bildung der Hypothesen, welches denn die gemeinsamen Eigechaften der passenden unter den ausprobierten Schlüsseln sind, waren die Chemiker auf zweidimensionale Vorstellungen der Struktur beschränkt. Mittels des "Molecular Modellings" aber kann man sich systematisch ein 3D-Bild erarbeiten. Und mit dem Number-Cruncher wird dies nun erst richtig machbar. Die Moleküle werden im Computer als Modell aufgebaut - als Atome, die quasi durch Federn verbundensind. Errechnet wird ihre Form inklusive Volumenoberfläche, Landungsverteilung und natürlich Energie. Errechnet wird, zu welchen Energie-Effekten die Partien bei der anbindenden Wechselwirkung führen - seien es Multipol- (Van-der-Waals-) Beiträge, Wasserstoff-Brücken oder der Energie-Gewinn-Verlust, wenn das umgebene Wasser an den Partien verdrängt wird.

Der Modeller lastet dem Computer hier extrem aufwendige Jobs auf. Mögen kleinere Schlüssel noch 50 Atome tragen, kommen sehr schnell 600 Atome zusammen, wenn Peptieden als Schlüsseln gerechnet wird. Kommt schließlich die Wasserhülle hinzu, sind Jobs mit 2500 Atomen keine Seltenheit. Das heißt, im Feder-Modell gilt es, für jedes der Atome nacheinander zu berechnen, welche Kraft jedes der restlichen 2499 auf es ausübt - und dies nicht nur einmal, sondern 100 000 mal. Betrachtet wird das "Feder" Molekül nämlich dynamisch: Man gibt die Atome in Startpositionen und -geschwindigkeiten vor und läßt das System sich einschwingen - über 100 Pico-Sekunden hinweg, wobei alle Femto-Sekunde (10-15) in einer Schnappschuß-Rechnung die neuen Beschleunigungen auf die Atome ermittelt werden.

Ohne Supercomputer ließen sich solche Jobs nicht abarbeiten. Eine Micro-VAX hätte dafür ein Jahr gebraucht. Heute macht es die Convex in 9,7 Tagen. Aber der Durchsatz-Aspekt ist es nicht alleine, was in Ingelheim begeistert. Für die Durchführung solcher Rechnungen wurden schon früher extern Cray-CPU-Zeiten gemietet. Den noch bedeutenderen Zugewinn benennt Herbert Köppen, Modeller und Leiter der DV-Anwendung, so: "Mit dem Superrechner vor Ort habe ich nun auch den Freiraum, die Modelle zu verbessern, in die man doch eine ganze Reihe von Parametern und Näherungen hineinsteckt. Ich kann manches ausprobieren. Das erhöht die Aussagefähigkeit und die Glaub würdigkeit bei den Chemikern. Mit dem eigenen Werkzeug kommt also eine neue Qualität ins Spiel. Denn nicht alles, was sich so schön bunt auf dem Bildschirm darstellen läßt, muß auch unbedingt die Wahrheit sein!"

Handarbeit am Cod brlngt Verbesserungen

Gerade die Glaubwürdigkeit ist essentiell. Letztlich liefert der Rechner nur Zahlen, die Chemiker aber gilt es zu überzeugen, daß diese oder jene neue Synthesierung, diese oder Jene Anderung am Versuchsschlüssel sinnvoll ist. Sei es der Einbau eines voluminösen Spacers, um das Eindringen eines Molekülteils auszuschließen, sei es das Anbringen von Links, die das so häßliche Problem der Vielgestaltigkeit (bei Peptiden Zigtausende Möglichkeiten) drastisch reduzieren.

Eröffnet hat das Molecular Modelling nicht zuletzt auch die Möglichkeit, daß nun auch mehr und mehr Schlösser in ihrer 3D-Gestalt bekannt werden. Dann nämlich, wenn der Wirkstoff nicht an einen Rezeptor, sondern an ein Enzym binden soll. Was von ihnen in flüssiger Lösung über Nuclear-Magnetic-Resonance-Spektren (NMR) an 2D-Informationen gewonnen wird, läßt sich mittels Molecular-Modelling auf eine 3D-Ebene heben. Damit wird es in diesen Fällen also auch möglich, das Gesamtsystem Schlüssel-Schloß (plus Wasser) zu berechnen.

Von der Unterstützung der Arbeit durch den Number-Cruncher ist Köppen jedenfalls angetan und er zeigt sich zuversichtlich, daß sich auf dieser Basis noch weitere Impulse ableiten lassen.

Alliant, Convex, Cray, ETA, FPS, IBM (3090 plus Vector-Facility), Silicon-Graphics (mit 4x-CPU) und Multiflow (GEI) - fast die ganze Anbieter-Riege hatte sich ins Spiel gebracht. Doch Köppen und sein Biberacher Kollege Hasselbach interessierten nicht Linpacks. Gefragt war, wie schnell die eigene Anwendung lief - ein Set von sieben Benchmarks des Codes "Discover" von Biosym. Wer den Code nicht wirklich optimieren konnte, hatte schlechte Karten, denn Handarbeit am Code bringt immer noch deutliche Verbesserungen.

Rechnerauslegung am Durchsatz orientiert

Da die Leistung auch bei Boehringer in Relation zu den Kosten zu bringen war, kam die Extremlösung Cray-2 nicht in Frage (statt 9,7 Tage hätte ein Job 3,3 Tage gedauert). Eingedenk des hohen Maintenance-Aufwands, so rechnet Köppen zurück, wären bei der zu erwartenden Auslastung die Kosten pro Job rund zehnmal höher gelegen als bei der Convex. Und statt zweier Maschinen wäre dann auch nur eine einzige große in Frage gekommen - mit Zugriffs-Nachteilen für die US-Kollegen.

In die engere Wahl kam schließlich noch die Trace. Hier wäre man fast der Versuchung erlegen. Das "etwas andersartige" an der Very-Long-Instruction-Word-Architektur hatte durchaus seine Reize, so Köppen, denn immerhin schaffte die Trase Benchmark-Zeiten vergleichbar der Convex - bei langsamerer Taktung, also noch ausbaubarer Hardware. Eingeholte Wirtschaftsauskünfte jedoch ließen dann allerdings Abstand nehmen.

Bestätigt sieht sich der Modeller indessen ganz generell in einer Grundhaltung, von der er sagt, sie stehe einem Konzern wie Boehringer ganz gut an: "So illuster die eine oder andere Neuerung gelegentlich aussehen mag - wir neigen bewußt zu einem gewissem Konservatismus in solchen Key-Entscheidungen, zum Etablierten. Und wir taten ja auch wohl daran." Konservativ, das meint auch daß zum Zeitpunkt der Wahl nur sehr wenige Anwender etwas über ihre Trase-Erfahrungen äußern konnten. Convex-User dagegen gab es weitverbreitet. Und sie alle hätten bestätigt, daß die Maschine sehr stabil arbeite.

Die je zwei Prozessoren lassen zunächst gewisse Luft, um die wachsenden Aktivitäten - auch die der anderen Konzern-Gruppen - aufzufangen. Noch wird die Euro Maschine nur von den zwei Standorten Ingelheim und Biberach genutzt, so daß jeder "seinen" Prozessor hat. Die Auslegung, so Köppen, sei an Durchsatz-Aspekten orientiert gewesen.

Das Andersartige hat durchaus seine Reize

An einer über die Vektorisierung hinausgehenden Parallelisierung, die die Aufteilung eines Jobs unter den beiden Prozessoren ermöglicht, ist man derzeit nicht interessiert. Denn ein von zwei Prozessoren bearbeiteter Job läuft nicht zweimal, sondern allenfalls 60 bis 70 Prozent schneller. Und Jobs gibt es genügend zu fahren. Zwar kommen 9-Tages-Rechnungen nicht dauernd vor, doch Probleme, an denen der Number-Cruncher zwei bis drei Tage knobelt, warten ständig - wenn auch die Forscher immer noch ihre Denk-Pausen zwischenschalten, über den Ergebnissen brüten und beraten müssen.

Nicht mehr allzulange indessen wird es dauern, bis auch die jetzige Konfiguration ausgelastet sein wird. Von der Computerunterstützung wird bald deutlich mehr verlangt werden, wenn nämlich zusätzlich zur bisherigen Methode der Molekülmechanik und -dynamik auch verstärkt Quantenmechanik, semi-empirisch oder ab initio (ohne jegliche Parametereingabe) gerechnet werden soll. Da diese Rechnungen nicht so stark vektorisierbar sind, könnte eine potente Workstation notwendig sein. Es könnte aber auch ganz schlicht ein weiterer Prozessor sein, den man in Ingelheim in die Convex steckt.

Stäindig neue Aufgaben für den Number Cruncher

Zunächst ist jedoch ein großer Schritt getan. Rechnungen, die man bislang erst gar nicht anging, laufen jetzt im Zeitraum von einigen Tagen. Träume aber versiegen auch bei den Drug-Designern nicht. Am allerliebsten hätte man irgendwann einen Rechner, der den Versuch gestattete, die Moleküle per Joystick in den Rezeptor anzudokken - und der dabei zugleich in Realzeit die Wechselwirkungs-Prozesse, also sämtliche Deformationen, sowie die Energiebilanz während des interaktiven Schlüssel-Einführens auf den Bildschirm zaubert. Bis es dahin kommt, werden allerdings noch einige Generationen an Number-Crunchern rechnen müssen.