Neuronale Netze machen den Internet-Auftritt sicher

06.02.2000
Die zwei wichtigsten Anforderungen an eine E-Commerce-Lösung heißen Verfügbarkeit und Aktualität. Mit Hilfe der neuronalen Netzwerktechnologie lässt sich die Infrastruktur von E-Business-Umgebungen überwachen und verbessern. Hans-Peter Müller* erklärt, wie neuronale Netze arbeiten.

Das E-Business, insbeson-dere das Online-Geschäft, steht und fällt mit der im Hintergrund betriebenen Infrastruktur. Wenn sich das WWW als World Wide Wait oder undurchdringbarer Datendschungel entpuppt, werden Betreiber einen Interessenten zweimal erreichen: Zum ersten und zum letzten Mal. Verärgert werden sie sich bei weiteren Ausflügen einem Konkurrenz-Shop zuwenden.

Wer seinen Auftritt im Internet ernsthaft betreiben will, muss deshalb die Gesetze des Internet - Verfügbarkeit, Flexibilität und Schnelligkeit - als Anforderungen für seine Infrastruktur und sein Auftrittskonzept gelten lassen. Relevant sind diese Ziele besonders für E-Business-Lösungen, die nicht nur als Standalone-System organisiert, sondern in das betriebswirtschaftliche Gesamtsystem eingebunden sind. Die derzeit gängigen Webshops sind in der Regel Einzelsysteme, die sich der Vertrieb als Internet-Fenster zugelegt hat, um auch die "surfende" Kundschaft bedienen zu können. In diesen Fällen endet die Online-Beziehung am Web-Rechner. Die nachfolgenden Prozessschritte müssen "von Hand" angestoßen werden, das heißt, die Bestelldaten werden erneut erfasst und in das ERP-System geschleust. Zwischen der E-Commerce-Infrastruktur und der Unternehmens-IT sollte es aber keinen Bruch geben. Effiziente E-Business-Lösungen setzen voraus, dass die Web-Anwendung mit dem IT-System im Hintergrund verknüpft wird. Nur so ist ein schneller und konsistenter Durchfluss der (Bestell-)Daten aus dem Internet bis zu den Vertriebs-, Lager- und Buchhaltungssystemen gewährleistet.

Wer eine solche integrierte E-Commerce-Lösung umsetzen will, muss für die ständige Verfügbarkeit seines IT-Netzwerks im Unternehmen sorgen. Das ist keine leichte Aufgabe angesichts der komplexen IT-Systeme moderner Unternehmen. Schon der Ausfall einer IT-Komponente führt bei der zunehmenden Verzahnung der Geschäftsprozesse zu erheblichen Folgeschäden. Um die Verfügbarkeit abzusichern, setzen deshalb viele Betriebe System-Management-Tools ein, die helfen, das Netz zu überwachen und zu verwalten.

Ein Hauptproblem für den IT-Administrator war bisher, möglichst schnell die Störungsursache zu finden: Aus der Vielzahl von Alarmmeldungen auf seinem Bildschirm musste er diejenigen herausfiltern, die tatsächlich eine Gefährdung der Netzperformance bedeuteten. Für diese Sisyphusarbeit hat Computer Associates vor etwa zwei Jahren die regelbasierte Agententechnologie um die selbst lernenden Agenten, die auf der neuronalen Netzwerktechnologie basieren, erweitert und als Anwendung in das Netzwerk-Management-Tool des CA-Frameworks Unicenter TNG integriert.

Dem menschlichen Gehirn abgeschaut

Diese Neugents (Neural Network Agents) sind eine Technologieva-riante aus der Sparte der "künstlichen Intelligenz" (KI). Sie haben gegenüber den klassischen Agenten, deren Regeln aufwendig programmiert werden müssen, den Vorteil, dass sie ihre "Policy" selbst erlernen und anwenden können und sich deshalb auch flexibel - ohne Programmieraufwand - an veränderte Bedingungen anpassen. Abgeschaut wurde dieser Mechanismus dem menschlichen Gehirn- und Nervensystem. In unserem Gehirn sorgen die Neuronen - eine spezielle Art von Nervenzellen - dafür, dass wir aus unserer Wahrnehmung lernen. So ist es uns möglich, auf einem Jugendfoto einen uns bekannten Menschen wiederzuerkennen, obwohl er inzwischen gealtert ist und einen Vollbart trägt. Obwohl die Neuronen dabei eine riesige Menge von Signalen verarbeiten, wird unser Gehirn nicht von Einzelsignalen überflutet. Verantwortlich dafür ist ein spezifischer Verarbeitungsmechanismus: Die Signale werden so lange aufsummiert bis ein bestimmter Schwellenwert erreicht ist, erst in diesem Augenblick wird ein Signal weitergeleitet. Diesen Mechanismus verwendet die künstliche neurona-le Netzwerktechnologie, wenn sie aus einer Vielzahl von Informationen die relevanten herausliest.

Beim Einsatz im Netzwerkbereich helfen die "intelligenten" Assistenten, die Verfügbarkeit der E-Commerce-Lösung im Hintergrund sicherzustellen. Dabei analysieren sie zuerst die in einer ITInfrastruktur vorliegenden umfangreichen Informationsbestände und erkennen dabei die in den Daten vorhandenen Beziehungen und Muster. Mit dieser Wissensbasis ausgestattet, sind sie anschließend in der Lage, Veränderungen im System sofort zu erkennen und darüber hinaus ihre Folgewirkung abzuschätzen. Für den Systemadministrator ist damit die Zeit der detektivischen Suche nach dem "Übeltäter" vorbei. Diese Aufgabe übernimmt sein digitaler Assistent: Er vergleicht selbstständig die veränderten Werte mit dem spezifischen Profil des IT-Netzes. Dabei sortiert er die Veränderungen in "normale" und "unnormale" und meldet anschließend nur die Auffälligkeiten, die sich negativ auf das Systemverhalten - zum Beispiel auf den ungehinderten Fluss der Bestellung aus dem Internet - auswirken können. Daraufhin kann der Administrator selbst reagieren, oder sein Agent leitet automatisch "Heilungs"-Maßnahmen ein, wenn er darauf eingestellt wurde. Neugents gehen damit weit über die reaktive Analyse von Daten hinaus. Sie können sogar, Änderungen der vorgegebenen Richtlinien vorzuschlagen.

Wenn von Verfügbarkeit die Rede ist, spielt auch das Sicherheits-Management eine bedeutende Rolle. Auch auf diesem Feld werden inzwischen die neuronalen Netzwerkagenten eingesetzt: Wenn ein selbstlernender Agent beispielsweise sehr hohe Hit-Raten oder ein außergewöhnliches Zugriffsverhalten registriert - Anzeichen, die oft auf einen Hacking-Versuch hindeuten - schlägt er Alarm. Außergewöhnliche Ping-Raten auf einen Rechner oder eine hohe Netzwerklast durch eine bestimmte IP-Adresse werden ebenfalls erkannt. Mit diesen Informationen lassen sich gefürchtete Spam-Attacken - das Zuschütten eines Internet-Servers durch sinnlose Mail-Mengen - eliminieren. Ungewöhnliches Bestellverhalten fällt sofort auf - selbst wenn es getarnt sein sollte: Was passiert, wenn ein Privatkunde beispielsweise 500 Exemplare eines Buches bestellt, das bisher zu den Ladenhütern gehörte? Auch ein klassisches Regelwerk würde die ungewöhnlich hohe Anzahl der Bücher sofort als eine Scherzbestellung erkennen, die Anbietern heute die Geschäfte zunehmend erschwert. Wenn diese Bestellung nun aber hundertmal mit jeweils fünf Exemplaren und identischer Adresse aufgegeben wird, ist das Regelwerk überfordert. Dem selbst lernenden Agenten fällt dieser Zusammenhang jedoch auf. Der gewarnte Sachbearbeiter kann der Bestellung dann weiter auf den Grund gehen.

Aus dem Surfverhalten Kundenwünsche ablesen

Während sich die Einsätze der "intelligenten" Agenten im Infrastruktur- und Sicherheitsbereich relativ unspektakulär im Hintergrund abspielen - der Internet-Kunde erlebt die Wirkungsweise der KI-Tools nur indirekt, indem er sich über die hohe Verfügbarkeit und die rasche Bedienung des Web-Anbieters freut - sorgt die Anwendung auf dem Feld des Kundenbeziehungs-Managements für erhöhte Aufmerksamkeit: Die "intelligenten Assistenten" machen aus der relativ starren Beziehung des Anbieters zum potentiellen Kunden im Web einen dynamischen Prozess. Sie analysieren nicht erst im Nachhinein die aufgenommenen Daten über Zugriffe und Surfverhalten, sondern sie werten noch während des Online-Besuchs aus und können sofort reagieren. Beispiel: Füllt ein Kunde gerade online ein Bestellformular für ein Herrenoberhemd aus, so kann der neuronale Hilfsassistent sofort die passenden Krawatten präsentieren, indem er kurzerhand einen Button mit einem Krawatten-Eyecatcher in die Web-Seite einklinkt. Und wenn der Neugent den Käufer schon besser "kennt", legt er auch nicht mehr nur die Standardauswahl vor, sondern wählt seine Präsentation gezielt nach dem Geschmack des Kunden aus.

Diese Vorgehensweise wird in der Fachwelt unter dem Begriff "Personalisierung des Web-Angebots" diskutiert. Auch der Inhalt und das Design der Web-Seiten kann abhängig vom jeweiligen Kunden gestaltet werden. Auf Basis der ihnen bekannten Daten können die neuronalen Agenten ein bestimmtes Kaufverhalten prognostizieren: Sie bieten dem Kunden dann dynamisch Links zu den Web-Seiten an, die seine Einkaufswünsche am besten befriedigen.

Darüber hinaus registrieren Neugents auch systemtechnische Daten, beispielsweise Hit-Raten, Verweildauer oder Zugriffshäufigkeit auf eine bestimmte Seite. Während herkömmliche Web-Tools diese Daten erst hinterher auswerten und daraufhin die Web-Seitenablage optimieren, ermitteln "intelligente" Anwendungen diese Werte dynamisch in Echtzeit. Sie sagen zum Beispiel voraus, welche Seite als nächste aufgerufen wird und veranlassen ein Pre-Caching.

Diese dynamische Reaktion des Anbieters auf den Kunden, die der Einsatz der neuronalen Netzwerktechnologie ermöglicht, geht über die bereits heute übliche Praxis im Internet hinaus. Auch Anbieter wie Amazon schlagen einem Kunden, der ein Buch kauft, sofort zusätzlich weitere Titel vor. Doch dabei handelt es sich um "fest verdrahtete" Verknüpfungen. Das bedeutet, zu jedem Buch gibt es weitere Titel, die automatisch eingeblendet werden. Das selbst lernende Tool hingegen bietet die Chance, sobald es einen Bücherwurm und seine Vorlieben näher "kennt", aus der Masse des Angebots nur die Informationen, die für den jeweiligen Kunden interessant sind, auszuwählen. Und das zahlt sich aus: Nicht die Masse, sondern die Klasse der Web-Seiten bringt den Umsatz.

*Hans-Peter Müller ist Business Technologist bei CA Computer Asso-ciates, Darmstadt.

Zur Startseite