Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

08.09.1989 - 

Studie der amerikanischen National Science Foundation (NSE) über den Markt für Datenvisualisierung:

Grafik-User zu sehr mit Programmierung befaßt

MÜNCHEN (CW) - Die grafische Datenvisualisierung, etwa für Simulationszwecke, entwickelt sich zu einem attraktiven DV-Anwendungsgebiet. Doch in der Praxis wird vieles falsch gemacht.

Zur Hauptaufgabe wissenschaftlicher Datenvisualisierung erklärt die NSF die Umsetzung komplexen physikalischer Phänomene in Bildinformationen. Mit dieser Technik lassen sich zu erforschende Objekte simulieren und Ansätze für die Problemlösung finden. Mit der Verfügbarkeit von Supercomputern werde die Visualisierung - verstanden als Zusanimenfassung der noch weitgehend voneinander unabhängigen, aber zusammenwachsenden Bereiche Computergrafik, Bildverarbeitung, Animation und Benutzeroberflächen-Prototyping - geradezu zur Voraussetzung von Datenpräsentationen und -interpretationen.

Die Marktuntersuchung ergab, daß der Einsatz eines Supercomputers im wissenschaftlichen Bereich nicht immer die beste Lösung für die Erstellung von Grafiken darstellt. In ihrem Bericht übt die NSF Kritik an der Computerindustrie, die sich nach wie vor zu sehr auf die Verbesserung des Datendurchsatzes konzentriert, anstatt sich mehr dem Thema Datenvisualisierung zu widmen.

Supercomputer sind nicht immer die beste Lösung

Propagiert werden in der Studie vor allem verteilte Lösungen, bei denen beispielsweise die Datenberechnung auf einem Cray-Rechner durchgeführt und die grafische Umsetzung oder das Rendering auf eine lokale Workstation ausgelagert wird. Dies, so die Schlußfolgerung, würde den Flaschenhals, der durch die komplette Erstellung von Grafiken auf einer Workstation entsteht, wirksam beseitigen.

Als zweiten Kritikpunkt hebt die NSF-Studie die weitverbreitete "Unsitte" der Anwender hervor, trotz der Verfügbarkeit leistungsfähiger Software und Workstations zuviel Zeit mit der Basisprogrammierung von Grafiken zu vergeuden. Durch den Kauf einer komfortablen, grafischen Anwendungssoftware, mit der sich Daten schnell in die jeweils gewünschte Darstellung bringen lassen, hätte der Wissenschaftler mehr Zeit für seine eigentliche Aufgabe-die Datenanalyse.

Diese möglichst umfangreiche Bibliothek grafischer Anwendungsprogramme, aufrufbar aus C, Pascal, Fortran oder komfortablen, interaktiven Benutzeroberflächen, sollte so beschaffen sein, daß die Geschwindigkeit und Funktionalität der Rechnerplattform vonständig ausgenutzt wird. Die bei fast jeder Grafikanwendung benötigten Funktionen wie Achsensysteme, Charts, 2D- und 3D-Contouring, 3D-Rendering und Rasterbilddarstellung müßten durch einfache Subroutinen oder auf Tastendruck erzeugt werden können.

Dies sei keineswegs selbstverständlich. Bei den klassischen, am Markt weit verbreiteten Low-level-Grafikstandards wie GKS (Grafik-Kern-System) und PHIGS (Programmers Hierarchical interactive Graphics Standard) sei für die Ausführung dieser Funktionen die Eingabe mehrerer tausend Programmzeilen erforderlich.

Anhand einer Marktanalyse hat das NSF rasterbasierende Grafiksysteme, die mit einem umfassenden Werkzeugset zur Entwicklung grafischer Anwendungssoftware kombiniert sind, neu definiert. Die Effektivität des Gesamtsystems wird vom Zusammenspiel folgender vier Eigenschaften bestimmt:

- Rechengeschwindigkeit,

- Grafikfähigkeiten der Hardware,

- Grafikfähigkeiten der Anwendungssoftware und

- Interaktive, benutzerfreundliche Entwicklungsumgebung.

Zu den Leistungsmerkmalen, die nach Auffassung der NSF die Tools für die Visualisierung im Bereich wissenschaftlicher Berechnungen (Visc) beinhalten müssen, gehören ein Managementprogramm für die Benutzeroberfläche sowie ein rasterbasierendes grafisches Grundpaket, das die Möglichkeit zur Echtbild-Darstellung bietet. Weitere Merkmale von Visc-Tools sollten eine grafische Anwendungssoftware, ein Interpolations- und Smoothing-Verfahren, ein integrierter grafischer Editor und das Computer-Graphics-Metafile (CGM) sein.

Nur solche Systeme, die sowohl in jedem einzelnen als auch im Zusammenspiel aller aufgeführten Eigenschaften höchste Leistungen erbringen, ermöglichten den Einsatz qualifizierter Visualisierungs-Methoden bei vertretbaren Antwortzeiten. In dieser neuen Technologie steckt vielmehr als nur die Anwendung von Hardware und Software für die Darstellung wissenschaftlicher Daten. Der Vorstoß ins Unbekannte, in die faszinierende Welt neuer physikalischer Phänome sei ohne Datenvisualisierung kaum denkbar.