Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

28.07.2000 - 

IT-Forschung

Neue Fundamente für die Kerninformatik

Kaum eine andere wissenschaftliche Disziplin entwickelt sich so rasant und so vielseitig wie das, was die Amerikaner "Computer Science" nennen. Was noch vor zehn Jahren als revolutionäre Phantasie galt - Simulation, Virtual Reality und Serviceroboter -, gehört heute schon zum Alltag. Doch wo wird die Informatik in zehn Jahren stehen? Johannes Kelch* hat sich in der Forschungsszene umgehört.

Die Informatik ist eine riesige Baustelle. Das erst wenige Jahrzehnte alte, immer wieder aufgestockte Bauwerk der Kerninformatik wird auf neue Fundamente gestellt, von Grund auf saniert und zum weithin sichtbaren Leuchtturm der Wissenschaft erhöht. Daneben entstehen in einem wirren Durcheinander bizarre An- und Neubauten in Gestalt von Bindestrich-Informatiken und neuartigen multidisziplinären Wissenschaftszweigen. Kaum sind die Gebäude bezogen, wird daneben schon für die nächsten Erweiterungen gegraben. Kühne Rechnerarchitekturen für leistungsstarke Anwendungen beherrschen das Bild und lassen vergessen, dass die Informatik nur ein heterogenes Konglomerat von Bauteilen und Bruchstücken ist.

Von einem harmonischen Ganzen kann keine Rede sein. So zerklüftet die Gegenwart der Informatik ist, so dunkel ist ihre Zukunft. Doch an Förderungs- und Forschungsschwerpunkten lässt sich ablesen, in welche Richtung sich die Disziplin bewegt. Ein Megatrend auf der Informatik-Baustelle geht in Richtung vorgefertigte Teile. Standarddatenformate und -schnittstellen setzen sich ohnehin immer stärker durch. Doch das ist erst der Anfang. Der Plattenbau scheint insgeheim das Leitbild vieler Informatiker zu sein. Allerdings ist das Qualitätsbewusstsein stärker ausgeprägt als weiland in der Bauindustrie der DDR. Das Motto der Informatik: Standardbauteile ja, aber nur von allererster wissenschaftlicher Qualität.

So sind die Grundlagenforscher am Max-Planck-Institut für Informatik in Saarbrücken überzeugt von der Idee der vorgefertigten Lösungsbausteine. Seit das Institut 1988 eröffnet wurde, entwickelt und sammelt es "effiziente Datenstrukturen und Algorithmen", so der Direktionsbevollmächtigte Christoph Storb.

Das Institut hält die heute noch gängige Praxis bei der Softwareprogrammierung für veraltet. Laut Storb macht es keinen Sinn, "das Rad immer wieder neu zu erfinden". Das Max-Planck-Institut wolle "Otto Normalprogrammierer" überzeugen, auf der Basis aktueller Forschungsergebnisse unter Verwendung neuer Datenstrukturen, Algorithmen und Programm-Module korrektere Programme zu erstellen als bisher.

Inzwischen sind die effizienten Datenstrukturen und Algorithmen in vier Bibliotheken zusammengefasst. Ein Spinoff des Max-Planck-Instituts, die Firma Algorithmic Solutions, pflegt und vertreibt die Bibliotheken. Laut Geschäftsführer Christian Uhrig ist "das Bewusstsein in Deutschland noch nicht geschärft, dass man Bibliotheken nutzen sollte". In den USA und in Japan sei man schon viel weiter. Trotz der Abstinenz in deutschen Landen ist sich Uhrig sicher, dass den vorgefertigten Lösungen die Zukunft gehört. Die Industrie könne es nicht leisten, Software immer wieder neu zu erstellen.

Eine nationale Bibliothek von SoftwarekomponentenEffiziente Lösungsbausteine sind nur Ausdruck eines weitaus umfassenderen Trends hin zu besserer, zuverlässigerer und sichererer Software. Der 1999 abgeschlossene Bericht eines amerikanischen Expertenteams, des "President''s Information Advisory Committee" (Pitac), an US-Präsident Bill Clinton identifiziert hier einen hohen Bedarf. In dem Papier heißt es: "Die Nation braucht Software, die weit nützlicher, zuverlässiger und mächtiger ist als das, was heute produziert wird."

Der Bericht fordert denn auch massivere Bereitstellung von Mitteln für die Grundlagenforschung auf dem Gebiet des Komponenten-basierten Softwaredesigns sowie eine wissenschaftliche und technische Basis für die künftige Softwarekomponenten-Industrie. Es sei wichtig, Theorien, Sprachen und Werkzeuge zu erforschen und zu schaffen, die der automatisierten Analyse, der Simulation und dem Test von Komponenten sowie der darauf aufgebauten Systeme dienten. Der Bericht befürwortet folgerichtig den Aufbau einer nationalen Bibliothek von Softwarekomponenten, die vielfältig verwendet werden könnten.

Ins gleiche Horn stoßen deutsche Experten, die auf Einladung der Deutschen Forschungsgemeinschaft (DFG) 1999 im "Walberberg-Kreis" nach Konsequenzen aus dem genannten Bericht für die deutsche Informatik suchten. Auch für diese Fachleute hat "Software-Engineering" hohe Priorität. So heißt es in ihrem Memorandum, "die Erstellung und Integration wiederverwendbarer Softwarekomponenten" sowie "die Konfigurierbarkeit und Skalierbarkeit von Softwaresystemen" seien noch ernst zu nehmende Probleme der Forschung. Die DFG hat deshalb auch nach Auskunft von Informatik-Referent Andreas Engelke als einen wesentlichen Förderungsschwerpunkt das bislang eher vernachlässigte Software-Engineering und hier wiederum die Wiederverwendbarkeit von Bausteinen, große Softwaresysteme sowie die Sicherheit gewählt.

Unabhängig von der Grundlagenforschung zieht die Informatik immer neue Aufgaben an sich. Sie durchdringt immer stärker zusätzliche Anwendungsfelder und wissenschaftliche Disziplinen. Da gibt es unter anderem die Bio- und die Medien-, die Umwelt- und die Wirtschaftsinformatik. Gleichzeitig entstehen multidisziplinäre Arbeitsgebiete mit einem hohen Anteil an Informatikkompetenz. Der "Walberberg-Kreis" glaubt, dass sich in sechs bis zehn Jahren ein "Kulturwandel durch Zusammenwachsen traditioneller Disziplinen, von den Naturwissenschaften über die Ingenieurwissenschaften bis hin zu den Gesellschaftswissenschaften" vollziehen wird. In der "wahrhaften Informationsgesellschaft" werde der Informatik "die Rolle des koordinierenden Bindeglieds" zukommen.

Annäherung an Geistes- und SozialwissenschaftenInformatiker der Universität München, die 1998 Perspektiven für ihre Disziplin an der Alma Mater suchten, schlagen das "Wissens-Management" als neues interdisziplinäres Arbeitsfeld für Psychologen, Pädagogen, Wirtschaftswissenschaftler und Informatiker vor: "Themen wie Wissensrepräsentation, -akquisition, -verarbeitung und -verwaltung, automatisches Lernen und ,Knowledge Discovery'' erhalten in der Informatik immer mehr Aufmerksamkeit. Diese Themen prägen heute nicht nur die Künstliche Intelligenz, die sie eingeführt hat, sondern auch andere Informatikbereiche wie Datenbank- und Informationssysteme." Die Münchner Informatiker sprechen sogar schon von einer "Annäherung der Informatik an die Geistes- und Sozialwissenschaften".

Andererseits wächst die Informatik verstärkt mit technischen Disziplinen zusammen. Ulrich Trottenberg, Leiter des GMD-Instituts für Algorithmen und Wissenschaftliches Rechnen (SCAI), sagt in einem Beitrag der Zeitschrift "GMD-Spiegel" vorher, dass für die Industrie das "Zusammenwachsen der drei beherrschenden Technologien der Informationstechnik - Rechnen, Kommunikation und Telekooperation - Multimedia und Virtuelle Realtität" eine immer größere Rolle spielen werden. Trottenberg ist überzeugt, dass die exorbitante Rechenleistung, die in dem neuen Arbeitsbereich vor allem für Simulations- und Optimierungsaufgaben benötigt wird, das parallele Rechnen "in Kombination mit innovativen schnellen Algorithmen" zu einer Basistechnologie machen wird.

Unisono betonen auch der Pitac-Bericht und das "Walberberg"-Memorandum Handlungsbedarf beim "Highend Computing", im deutschen Papier "Hochleistungsinformationsverarbeitung" genannt . Die US-Experten: "Um sicherzustellen, dass US-Wissenschaftler Zugang zu Computern der größtmöglichen Leistungsfähigkeit haben, sollte sich die Finanzierung auf innovative Architekturen, Hardwaretechnologien und Softwarestrategien fokussieren, die die Grenzen heutiger Systeme überwinden."

Einen dringenden Forschungs- und Entwicklungsbedarf provoziert laut Pitac-Bericht das rasche Wachstum des Internet. Der Fokus der US-Fachleute richtet sich auf die Internet-Infrastruktur der nächsten Generation. Es sei dringend erforderlich herauszufinden, "wie große, komplexe, hochzuverlässige und sichere Systeme" aufgebaut werden müssten. Man müsse für die nächste Generation des Internet planen und die dafür erforderliche Middleware schaffen.

Je rascher sich das Internet zu einer unüberschaubaren Informationsquelle entwickelt, desto stärker setzt sich der Trend in der Informatik durch, den Computer zum vernünftigen, lernfähigen Assistenten und Helfer des Menschen zu machen, der imstande ist, Wichtiges von Unwichtigem zu unterscheiden. Der Bericht spricht von "Information-Management-Techniken".

Softwarewerkzeuge zur Erweiterung der menschlichen Intelligenz und Erhöhung der Produktivität seien "Schlüsselkomponenten für den Reichtum der Nation in der Zukunft". Die Entwicklung von Techniken zur Filterung, zum Management, zur Auswertung und Visualisierung von Informationen sollte laut Bericht gefördert werden.

Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) mit Sitz in Kaiserslautern sucht in dem vom Bundesforschungsministerium mit rund 20 Millionen Mark geförderten Projekt "Adaptive Read" zusammen mit Partnern nach Wegen, dem Menschen die Orientierung im "Informationsozean" zu erleichtern. Ziel ist die "Entwicklung von Dokumentenerschließungssystemen der nächsten Generation".

Der für das Projekt verantwortliche Hochschullehrer Andreas Dengel stellt sich vor, dass der Rechner zum "persönlichen Informationsagenten" des Anwenders werden könnte. Während der Mensch einen Artikel verfasst, analysiert der Informationsagent den Inhalt der ersten Sätze und beschafft aus verschiedenen Datenbanken exakt jene Informationen, die hilfreich sind, um das begonnene Dokument fertigzustellen. Eine andere Anwendung, die Dengel für sinnvoll hält, ist die automatische Sortierung des Posteingangs in einem Unternehmen.

Als wesentliche Aufgabe der Dokumentenerschließung sieht er, "die richtigen Informationen zum richtigen Zeitpunkt am richtigen Ort zur Verfügung zu stellen". Ein wesentlicher Aspekt sei die "Fähigkeit, Relevanz zu identifizieren". Um die individuellen Interessen und Aufgabengebiete eines Nutzers zu berücksichtigen, müssten individuelle Profile erstellt werden. Schließlich kommt es entscheidend auf die Lernfähigkeit an. So sollen Dokumentenerschließungssysteme durch die Kombination von neuronalen Netzen, Regellernverfahren und statistischen Methoden eine "deutliche Performance-Verbesserung bei lernenden Systemen" erreichen.

Der Trend, den Computer zum vernünftigen, lernfähigen Assistenten und Helfer des Menschen zu machen, dominiert auch in der Robotik sowie in den Bemühungen, die Mensch-Maschine-Kommunikation zu verbessern. Bundesforschungsministerin Edelgard Bulmahn gibt seit dem vergangenen Jahr insgesamt 165 Millionen Mark für ausgewählte Leitprojekte zur "Mensch-Technik-Interaktion in der Wissensgesellschaft" aus.

Wo also wird die Informatik in fünf bis zehn Jahren, wenn die aktuellen Forschungsvorhaben verwirklicht sind, stehen? Sie wird wissenschaftlicher und allgegenwärtiger sein als heute. Sie wird die Mängel heutiger Informationsverarbeitung überwunden haben und exaktere Programme hervorbringen, als dies bis heute möglich ist. Sie wird in alle Lebensbereiche vorgedrungen sein und dabei insbesondere die Wirtschaft, die Produktion und die Produkte, den Verkehr, das Gesundheitswesen und die öffentliche Verwaltung umgekrempelt haben. Sie wird den Menschen in der Gestalt von Assistenten und Agenten wirksamer bei der Suche nach benötigten Informationen und alltäglichen Routineaufgaben unterstützen als heute, aber ihn auch ersetzen, wo eintönige Arbeiten dies nahe legen.

*Johannes Kelch ist freier Journalist in München.

TRENDS IN DER INFORMATIK- Bessere, sicherere, mächtigere Software

Mit mathematischen Methoden auf Korrektheit überprüfte Programme

- Vorgefertigte Lösungsbausteine

Effiziente Datenstrukturen, Algorithmen, Komponenten

- Mehr Leistung in der Informationsverarbeitung

Highend-Computing, paralleles Rechnen

- Hineinwachsen in neue Anwendungsgebiete

Bindestrich-Informatiken, neue multidisziplinäre Fachgebiete

- Einfachere Kommunikation mit dem Rechner

Anwenderfreundlichere Mensch-Maschine-Schnittstellen

- Der Computer als Assistent und Agent

Orientierung im weltweiten "Informationsozean" Quelle: JK