Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

18.05.1990 - 

Genetische Algorithmen haben noch große Schwächen

Programmevolution: Wann ist das Optimum erreicht?

Weit mehr als die Künstliche Intelligenz (KI) deren Methoden und Techniken inzwischen auf bestimmten Gebieten eingesetzt werden, bedarf die genetische Programmierung noch einiger Anstrengungen auf dem Weg zur kommerziellen Nutzbarkeit. Gleichwohl werden bereits Anwendungen "künstlichen Lebens" erprobt.

Nicht viel anders als das Gebiet der neuronalen Netze steckt auch das der genetischen Algorithmen noch in den Kinderschuhen Darüber dürfen auch Demonstrationen nicht hinwegtäuschen, wie jene von David E. Goldberg, bei der ein genetischer Algorithmus die laufend sich ändernden Umstände in den Griff zu bekommen versucht, die für Pumpstationen von Gasleitungen typisch sind. Denn hier muß der - menschliche oder maschinelle - Pumpwart fortwährend mit immer neuen Situationen zurechtkommen, die beispielsweise auf ausfallende Pumpen, auf spontane Lecks in den Leitungen oder auf Druckschwankungen zurückgeführt werden können.

Der Algorithmus bildet sich weiter

Diese Aufgabe meistert Goldbergs genetischer Algorithmus, indem er bei allen möglichen Drucksituationen immer wieder jene Kombination der zu aktivierenden Pumpen findet, die in der Leitung exakt den geforderten Druck sicherstellen kann. Ändern sich die Eingangsparameter, so sucht der genetische Algorithmus nach einer neuen Kombination. Dabei gelingt es ihm nicht nur, sich sozusagen fortlaufend selbst weiterzubilden; er hilft auch, den Energieverbrauch der Pumpanlage auf einem Minimum zu halten.

Auch Versuche an der Vanderbilt-Universität in Nashville/ Tennessee sind interessant. Dort, so berichten J. Michael Fitzpatrick und sein Team, unterstützt ein genetischer Algorithmus bereits die Mediziner: Er hilft, zwei verschiedene Röntgenaufnahmen der gleichen Arterie nahtlos zur Deckung zu bringen und ermöglicht den Ärzten damit den Vergleich zwischen dem Zustand vor und nach dem Einspritzen eines Röntgen-Kontrastmittels, was die korrekte Diagnose bestimmter arterieller Defekte erleichtert.

Dieser Bildervergleich war zuvor nur schwer durchführbar. Da Patienten sich meist ein wenig bewegen, sind die beiden Fotos nie ganz deckungsgleich. Doch der genetische Algorithmus mit seiner Flexibilität findet immer wieder genau jenen Satz mathematischer Gleichungen heraus, der die Bilder durch entsprechende Transformations-Rechnungen perfekt ineinander überführt.

In die Welt der Chemie führt uns ein System, das im holländischen Nijmwegen an der katholischen Universität erprobt wird. Dort will man genetische Algorithmen dazu einsetzen, chemische Strukturdaten zu analysieren und so beispielsweise die dreidimensional Gestalt von DNA-Molekülen aufzuklären en, die in wäßriger Lösung vorliegen. Dazu werden vom genetischen Algorithmus Kernspin-Resonanz-Messungen an diesen DNA-Molekülen - die ja selbst wiederum Teile von Chromosomen oder Genen der natürlichen Zellen sind - ausgewertet.

Alle involvierten Institute setzen sich neben der praktischen Nutzanwendung der genetischen Algorithmen auch mit der Frage auseinander, wie man diese selbst immer weiter verbessern kann und für welche Arten von Problemstellungen sich welche Algorithmen am besten eignen. Hierbei diskutieren die Fachleute dann oft ganz hitzig Fragen, die etwa die beste Art der computergerechten Codierung eines bestimmten Problems betreffen oder den idealen Weg, beim Rekombinieren von Chromosomen die Elternchromosomen aufzuteilen und dann über Kreuz wieder zusammenzufügen.

Es zeichnet sich bereits ab, daß einfache Algorithmen, die nur mit Chromosomen vorgegebener Länge arbeiten können, einige Aufgabenstellungen nicht so recht in den Griff bekommen. Auch Probleme, die zu ihrer Codierung sehr lange Chromosomen erfordern, erweisen sich als ziemlich sperrig.

Zentrale Frage bei der Suche nach immer besseren Varianten der heute bekannten genetischen Algorithmen ist die, mit der sich auch späte Partygäste auseinanderzusetzen pflegen: "Wann soll ich aufhören?" Das genetische Evolutionsspiel der hier behandelten Algorithmen kann schließlich theoretisch ins Uferlose weitergetrieben werden, und grundsätzlich ist immer noch die Hoffnung vorhanden, daß eine künftige Lösung der bereits gefundenen nochmals überlegen sein könnte.

Holland entdeckte vor allem hinsichtlich umfangreicher Systeme mit langen Chromosomenwörtern und sehr langen Laufzeiten immense Wissenslücken: Wir seien noch weit davon entfernt, solche Systeme auch nur halbwegs zu verstehen, wiewohl sich bereits abzeichnet, daß umfangreiche Systeme genetischer Algorithmen sich eher wie ganze Ökosysteme als wie einzelne Individuen verhalten - und dabei oft sehr komplizierte und kaum vorhersagbare Wechselwirkungseffekte zeitigen.

Was die weitere Entwicklung dieser Algorithmen betrifft, so sind der Phantasie der Menschen keine Grenzen gesetzt, wollen sie immer stärkere Verfeinerungen vornehmen. Nach dem Muster der Natur können sie auch Phänomene und Feinheiten, wie etwa den Mechanismus der DNA-RNA-Informationsübertragung, das Invertieren einzelner Chromosomensegmente oder die "springenden Gene", in ihre Computer mit übernehmen, um nur einige der vielfältigen Besonderheiten natürlicher genetischer Systeme zu erwähnen.

So entwickelte beispielsweise Daniel Hillis, der Chef der Firma Thinking Machines in Cambridge/Massachusetts, auf seiner mit über 65 000 parallelen Prozessoren ausgestatteten Connection-Maschine auf genetisch-evolutivem Wege einerseits Programme zum Sortieren numerischer Werte und - beim Verfeinern dieser genetischen Verfahren - andererseits Tricks, die beispielsweise darin bestehen, daß die verschiedenen Programmgenerationen gezielt Fehler eingebaut bekommen. Dies kann der weiteren Evolution völlig neue, gänzlich unerwartete und ausgesprochen weitreichende Perspektiven eröffnen. Durch einen weiteren Trick läßt Hillis Programmvarianten, die sich im Zuge der rechner-technisch simulierten Evolution allzu stark von ihren "Geschwistern" abheben und damit ein vorzeitiges Beenden des Entwicklungsprozesses befürchten lassen, von einer Art Virus angreifen und ausrotten.

Genetische Algorithmen stellen ein Feld dar, das natürlich weit mehr verspricht, als nur die praktische Nutzanwendungen unserer biologischen Erkenntnisse auf Problemstellungen der Technik und der Informatik selbst. Es verspricht neue Forschungsinstrumente zur besseren Untersuchung genetisch-evolutionärer Fragestellungen. Damit beginnen genetische Algorithmen für die Biologie allmählich die gleiche Rolle zu spielen wie herkömmliche Simulationsrechnungen für die Meteorologie oder die Thermodynamik.

Die Implikationen reichen noch weiter

Für Christopher Langton vom US-National-Laboratorium in Los Alamos/New Mexico reichen die Implikationen der Erforschung genetischer Algorithmen beziehungsweise "künstlichen Lebens" (AL, artificial life) indes noch viel weiter. Denn, so der Organisator einer einschlägigen Fachkonferenz im Februar dieses Jahres in Santa Fe/New Mexico, die Beschäftigung mit dieser neuen Wissenschaft könne womöglich die grundlegenden Prinzipien des Lebens verständlich machen.

Ob aber Langton und seine Fachkollegen, die schon vor drei Jahren einen ähnlichen Fachkongreß abgehalten haben, mit ihren Spekulationen etwas wirklich Neues sagen? - Vielleicht nicht: Schon Computerpionier Konrad Zuse, dessen Berliner Kreation Z3 nächstes Jahr als weltweit erster programmierbarer Rechner seinen 50. Geburtstag feiern wird, hat seit jeher weit mehr vor Augen gehabt als nur den Gedanken an immer bessere Relais oder Röhren.

Zuse nämlich skizzierte schon 1957 - dies war die Zeit der ersten Plattenspeicher und lange vor dem Übergang auf integrierte Chips die Zeit der ersten Transistor-Rechner - das Konzept einer beliebig umfangreichen und von Rechnern gesteuerten Fabrikanlage, die sich vollautomatisch immer neu reproduzieren könnte.

Als Weiterentwicklung dieses Konzepts schlug Zuse in einem

Vortrag an der Technischen Universität Berlin vor, diese Fabrik so zu programmieren, daß "eine von Stufe zu Stufe komplizierter werdende Reihe von Produktionsstätten entsteht", wodurch die Erstanlage zu einer "technischen Keimzelle" würde. Dies wirft die Frage auf, was für eine "einfachste Form so einer Anfangs-Werkstatt" eigentlich nötig wäre, um "aus ihr ein vollständiges Industriewerk herauskristallisieren" zu lassen. Vor allem aber sagte Zuse schon vor mehr als drei Jahrzehnten in einem Ausblick wörtlich: "Wenn es gelänge, aus Keimzellen heraus technische Gebilde selbsttätig aufzubauen, so könnte man natürlich auch Rechengeräte auf diese Weise schaffen.

Durch systematisches Spielen an den Chromosomensätzen ließen sich dann die verschiedensten Varianten logistischer Geräte und künstlicher Gehirne entwickeln.

Und schließlich müßte man auch in der Lage sein, die Keimzelle desjenigen künstlichen Gehirns zu finden, das - von einer gewissen Stufe an - in der Lage ist, all die hier angedeuteten Erfindungen und mathematischen Entwicklungen besser durchzuführen als der Mensch."