Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

08.05.1992 - 

Für Prognosen im Bereich Börsenentwicklung

Künstliche neuronale Netze spielen elektronische Kassandra

Neuronale Netze haben eine Renaissance erfahren und werden weltweit mit erheblichem Forschungsaufwand weiterentwickelt. Dabei lassen sich erstaunliche Leistungssteigerungen gegenüber algorithmischen Programmen und Systemen der künstlichen Intelligenz erzielen. Michael Kühn* erläutert, wie sich diese Technologie zur Vorhersage von Börsenbewegungen einsetzen läßt.

Das Erstellen von Prognosen im Finanzbereich basiert auf Auswertungen von Informationen verschiedenster Quellen (textuell und numerisch). Die Art von Auswertungen, wie Börsenexperten sie vornehmen, ist - da uneinheitlich und in weiten Zügen intuitiv - weder vollständig formalisierbar noch besonders exakt. Deshalb erreichen "professionell" verwaltete Aktienfonds nur selten einen Wertzuwachs, der dem durchschnittlichen Zuwachs einer Reihe von Standardaktien (Aktienindex) entspricht.

Die Börsenprognose zählt zu den sogenannten nicht-konservativen Domänen, die durch ein komplexes, nicht-lineares Zusammenspiel, einer Reihe von Faktoren charakterisiert sind und die sich damit einem vollständigen Verständnis entziehen. Diese Bereiche können durch prozedurale oder wissensbasierte Systeme so gut wie nicht verbessert werden.

Nur ein System, welches nicht den bekannten menschlichen Begrenzungen unterliegt, wird in der Lage sein, komplexe, interaktive Regelsysteme, wie eben moderne Ökonomien, objektiv und vorurteilsfrei zu bewerten. Insbesondere neuronale Netze sind hier eine interessante Technologie, deren Einsatz im finanzwirtschaftlichen Prognosebereich großen Erfolg verspricht.

Nach Ansicht amerikanischer Börsenhändler eignen sich neuronale Netze geradezu ideal als Basis eines Vorhersagesystems. Folgende Vorteile werden hierfür angeführt:

- Neuronale Netze kommen auch mit unscharfen (fuzzy) Mustern zurecht, zum Beispiel solchen, die vielleicht noch intuitiv von Fachleuten erfaßt werden können, sich aber nicht in präzisen Regeln ausdrucken lassen.

- Sie arbeiten mit Wahrscheinlichkeiten und können auch in unsicheren Situationen Vermutungen anstellen und Entscheidungen treffen.

- Außerdem sind sie in der Lage, riesige Mengen von Informationen zu integrieren, ohne Gefahr zu laufen, sich auf bestimmte Details zu versteifen.

- Da neuronale Netze aus Erfahrung lernen, hängt die Erstellung eines Prognosesystems nicht von einem Experten ab.

- Darüber hinaus können neuronale Netze "wiedertrainiert" werden, um sich gegebenenfalls geänderten Marktsituationen

anzupassen.

- Und last, but not least, sind Neuronale Netze prinzipiell in der Lage, jedes beliebige Muster in jedem beliebigen Markt zu erkennen - auch solche, die noch nie zuvor von irgend jemand entdeckt wurden.

Künstliche neuronale Netze (KNN) suchen nach Mustern in den ihnen präsentierten Daten. Solche Daten können sich beispielsweise aus historischen Börsenkursen, technischen Indikatoren, fundamentalen Daten, Daten aus anderen Marktbereichen oder weiteren für eine Prognose relevanten Informationen zusammensetzen. Sind solche Daten für einen hinreichend großen Zeitraum verfügbar, kann das KNN mit ihnen trainiert werden. Hierbei stehen prinzipiell zwei Klassen von Lernalgorithmen zur Verfügung: das "Unsupervised Learning" und das "Supervised Learning".

Unsupervised Learning ("Lernen ohne Lehrer") ermöglicht ein direktes Auswerten der verschiedenen Eingangsdaten im Hinblick auf eventuell vorhandene Regularitäten beziehungsweise Abhängigkeiten der Eingangsfaktoren untereinander. Als Ergebnis des Unsupervised Learning werden von den Algorithmen eigenständig Konzepte gebildet, die bestimmte Konstellationen der Eingangsdaten widerspiegeln.

Die gelernten Konzepte sind in einem gewissen Rahmen rauschunempfindlich, das heißt, sie spiegeln nicht ausschließlich die ursprüngliche Trainingsmenge wider. Vielmehr stellen sie verallgemeinerte Konzepte dar, nach denen das KNN in der Erinnerungsphase des Netzes ("Recall"), also bei der Anwendung des Gelernten, auch ihm unbekannte Daten durchsuchen kann.

Supervised Learning ("Lernen mit Lehrer") erfordert ein Aufbereiten der Eingangsdaten in Input- und (gewünschte) Outputwerte. Ähnlich dem in der Regelungstechnik verwendeten adaptiven Filter wird das KNN nun darauf trainiert, einem gegebenen Input einen gewünschten Ziel-Output zuzuordnen. Da komplexere KNN-Systeme bei Adaptionsprozeß verallgemeinern können, ermöglichen sie nach erfolgreichem Training eine Auswertung neuer Daten, denen sie einen (prognostizierten) Output zuordnen.

Eine interessante Variante der Zeitreihen-Auswertungen, wie sie beispielsweise bei Börsenprognosen herangezogen werden, ist eine Kombination von Unsupervised und Supervised Learning in Form eines kaskadierten KNN. Hierbei würde der "untere" Teil des Netzes Hypothesen bezüglich bestimmter Konstellationen in den Eingangsdaten aufstellen, die dann vom "oberen" Teil des KNN im überwachten Lernen verifiziert und einer entsprechenden Prognose zugeordnet werden.

Die meisten Anwendungen von künstlichen neuronalen Netzen basieren auf dem Backpropagation-Lernalgorithmus, der zum Standardlieferumfang der gängigen KNN-Entwicklungssoftware gehört. Der Backpropagation-Algorithmus zählt zur Klasse der Supervised-Algorithmen; er erhielt seinen Namen durch die Zurückpropagierung eines falschen Outputs auf die dafür verantwortlichen Neuronenverbindungen in den unteren Schichten.

Die einzelnen Neuronen (Units) eines Netzes werden dabei einer funktionalen Gruppe oder Schicht (Layer) zugeordnet. Ein einfaches Backpropagation-Netzwerk besteht typischerweise aus einer Input-, einer Output- und einer versteckten Schicht (Hidden-Layer).

Die Leistungsfähigkeit eines solchen Netzes sollte jeweils domänenspezifisch beurteilt werden. Sie hängt unter anderem von der Anzahl der Neuronen innerhalb einer Schicht und auch von der Anzahl der Schichten selbst ab. Moderne Entwicklungsumgebungen unterstützen entweder die Ermittlung einer optimalen Neuronenanzahl durch mathematische Verfahren oder sie eliminieren automatisch redundante Units.

Da KNN für gute Prognosen komplexe Zusammenhänge zwischen einer Vielzahl von Faktoren ermitteln müssen, können sie bei nur einem Hidden-Layer auf die Grenze des hiermit Abbildbaren stoßen. Daher empfiehlt es sich, mit mindestens zwei versteckten Schichten, also einem insgesamt vierschichtigen Netz zu arbeiten. Noch mehr versteckte Schichten erhöhen die Menge der abbildbaren Zusammenhänge nicht, können aber zu einem früheren Konvergieren des Netzes, also kürzeren Lernzeiten, führen.

Die Anzahl der Units im Input-Layer wird durch die zu betrachtenden Faktoren/Indikatoren determiniert. Entsprechend hängt die Anzahl der Units im Output-Layer von den gewünschten Ausgaben ab. Bei den in der Literatur beschriebenen vierschichtigen Prognose-Netzen waren für die Hidden-Layer meist folgende Unitmengen erfolgreich: Im ersten Hidden-Layer etwa 10 bis 20 Prozent mehr Units als im Input-Layer und für den zweiten Hidden-Layer etwa 10 bis 15 Prozent der Input-Layer-Units.

Möglichst spezialisierte Aufgaben für die Netze

Darüber hinaus sind Variationen bei der Konnektivitätsmatrix (Welche Units sind mit welchen anderen verbunden?) sowie bei den Schwellwertfunktionen möglich (Ab welcher Inputmenge wird ein Unit selbst aktiv?). Selbstverständlich können außer der Backpropagation auch andere Algorithmen als Lernregel angewendet und miteinander kombiniert werden. Jeder Algorithmus enthält eine Reihe von Parametern, die sich für ein optimales Feintuning einstellen lassen.

In der Regel arbeiten die Netze besser, wenn man ihnen möglichst spezialisierte Aufgabe zuteilt. Für ein System, das Tops (lokale Kurshöchstpunkte) und Bottoms (lokale Kursniedrigstpunkte) prognostizieren soll, ist es beispielsweise besser, zwei verschiedene neuronale Netze (eins für die Tops und ein anderes für die Bottoms) zu trainieren, anstatt ein einziges Netz damit zu belasten, beides zu erkennen.

Optimierung mit Genetischen Algorithmen

Die Erfahrungen damit, welche Gesamtarchitektur von künstlichen neuronalen Netzen für das jeweilige Problem die angemessene ist, sind noch relativ bescheiden. Außerdem handelt es sich - wegen der Vielzahl der Variationsmöglichkeiten - um ein von Menschen prinzipiell nicht optimal lösbares Kombinationsproblem. Deshalb sollten hier andere Verfahren des Maschinellen Lernens zum Einsatz kommen.

Aussichtsreichste Kandidaten sind derzeit die darwinistisch inspirierten Genetischen Algorithmen; sie eignen sich besonders für den Einsatz in Optimierungsbereichen mit vielen Dimensionen, die in lokalen Optima hängenbleiben können und mit Rauschen behaftet sind. Genetische Algorithmen (GA) sind stochastische Suchstrategien, die in Anlehnung an natürliche evolutionäre Prozesse entwickelt wurden. Ein GA arbeitet nicht problemspezifisch. Er läßt sich in Bereichen anwenden, für die eine Bewertungsfunktion (Fitness) erstellt werden kann und die als Zustandsfunktionen fester Länge (fixed length encoding) darstellbar sind.

Ein entsprechender Algorithmus könnte wie folgt aussehen: Generiere eine zufällige Anfangspopulation von Netzen

WIEDERHOLE

Trainiere jedes Netzwerk dieser Population

Evaluation - Teste jedes Netzwerk auf seine Fitness

Selektion - Wähle die leistungsfähigsten Netze aus Reproduktion - Erzeuge eine neue Population aus den selektierten Netzen mit den genetischen Operatoren: Kreuzung, Mutation und Inversion

BIS eine zufriedenstellende Lösung gefunden wurde.

Untersuchungen mit genetisch optimierten Netzen belegen, daß sich auf diese Weise extreme Leistungssteigerung gegenüber einem willkürlich angelegten KNN erzielen lassen Weiterhin hat sich gezeigt, da die von genetischen Algorithmen erzeugten Netze nicht nur leistungsfähiger, sondern auch deutlich kleiner waren als die von Experten generierten Pendants. Der für solche Anwendungen erforderliche Rechenaufwand ist allerdings so immens, daß hierfür parallel Rechnerarchitekturen, zum Beispiel Trasputer verwendet werden müssen.

Obwohl die Vorhersagefähikeiten eines KNN auf Mustererkennungsprozessen basieren, bedeutet dies bei einer Börsenprognose nicht etwa eine Reduzierung auf das Betrachten von Kurs-Charts, wie dies in der technischen Chart-Analyse und bei entsprechenden Softwareprogrammen der Fall ist. Die Stärke des neuronalen Ansatzes basiert vielmehr auf der Erkennung nicht-linearer Zusammenhänge zwischen verschiedenen Informationen wie Indikatoren und aktuellen Kurswerten. Kognitive Begrenzungen beim Menschen lassen lediglich die gleichzeitige Betrachtung von zwei bis drei solcher Variablen zu; bei KNN-Systemen ist die Anzahl der Variablen im allgemeinen nur durch die verwendete Hardware und die Verfügbarkeit brauchbarer Daten begrenzt.

Selbstverständlich hat die Auswahl einer geeigneten Inputmenge großen Einfluß auf die erreichbare Akkuratesse de Prognosenetzes. In der Finanzwelt existiert eine Reihe von numerischen Indikatoren, die für Aktienkursprognosen interessant sein können. Die Basis hierfür liefern zum Beispiel fundamentale Informationen wie Konjunkturverlauf, Auftragseingänge, Zinshöhe, Inflationsrate, Geldmenge, Wechselkurse, Firmenalaslastung, Kurs/Gewinn-Verhältnis, Cash-flow und Rendite sowie technische Informationen, also Kursverläufe, Umsätze, gleitende Durchschnitte etc.

Aus solchen Datenbeständen können mittels konventioneller Berechnungen verschiedene dikatoren erzeugt werden, sich zum Teil aber nur leicht voneinander unterscheiden. Allerdings können neuronale Netze durch die Verwendung vieler gleichgearteter Indikatoren in ihrer Leistung behindert werden. Sorgfältige Vorararbeiten, beispielsweise in Form von Redundanzanlysen, sind demnach zwingend notwendig, wenn große Datenmengen berücksichtigt werden sollen. Ein solches Preprocessing der Daten wird von verschiedenen Forschern wiederum mit neuronalen Netzen oder Genetischen Algorithmen gelöst.

*Michael Kühn ist Unternehmensberater in Potsdam; sein Spezialgebiet sind Prognosesysteme.