Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

08.12.1989

Hausmannskost auf Meißener Porzellan

Mit schlichten "Primitives" lockt heute keiner mehr: CORE, GKS und PHIGS

als Grafikstandards haben zwar nicht gerade ausgedient, gleichwohl sind Anwendungen der Luxusklasse im Grafikbereich gewünscht, die bis hin zu "Donnerwetter" Qualität und Trickfilm-Genre gehen. Und zu Beginn der Multi-Media-Ära bleibt auch der Personal Computer kein Stand-alone mehr auf dem Zeichenbrett - und nutzt das Bild zudem zur eigenen Steuerung per grafischer Benutzeroberfläche.

Die Bedeutung der reinen Grafik auf dem Rechner, die sich noch vor nicht allzu langer Zeit mit der Einbindung von Schaubildern in Texte zufrieden gab, verlagert sich zunehmend bei höheren Qualitätsansprüchen in den interaktiven Bereich - - grafische Benutzeroberflächen

machen die Runde, gleichzeitig ist aber auch die Bildverarbeitung ein neuer Renner im Anwendungsbereich von Personal Computern und Workstations.

Weitaus geläufiger als High-Tech-Grafik sind grafische Benutzeroberflächen wie

X-Windows. Motiv oder Presentation Manager: Diese Benutzerschnittstellen sind im Kern auch für grafikorientierte Programme gemacht und dementsprechend konzipiert. So bieten

integrierte Grafikanwendungen schon erste interessante Möglichkeiten, Kreativität per Rechner auszuleben. Trendgerecht, denn in diesem Bereich werden verstärkt Mehrleistungen gefordert, so eine Marktaussage. Dazu gehört in logischer Konsequenz dann auch die Möglichkeit für Profis, auf diesen Fundamenten grafische Benutzeroberflächen interaktiv zu entwickeln sowie erweiterte Zusätze im Schrift- und Fontbereich bereitzustellen. Dies unter dem Aspekt, daß neuere Systeme wie beispielsweise X-Windows keine sonderlichen Stärken im Schrift- und Fontbereich aufzuweisen haben.

Der neueste Hit auf diesem Sektor der DV ist es, mit skalierbaren Fonts in den grafischen Benutzeroberflächen zu arbeiten. Bei traditioneller Technik können zwar beliebige Schriftypen eingebracht werden, aber - echter Nachteil herkömmlicher Systemauslegung - jeder Schrifttyp oder Font ist einzeln auf der Installationsdiskette abgespeichert. Häufig ist diese Speicherung sogar doppelt vorhanden, für Drucker und Bildschirm, da beide Systeme ein unterschiedliche Auflösung besitzen .

Grundanforderung nicht nur an Desktop Publishing, sondern an jedes Grafikprogramm ist es aber, meint Michael Büning. Marketingleiter der GEI Rechnersysteme GmbH aus Aachen. Schriften in verschiedener Größe zur Verfügung zu haben. Das ältere Konzept stößt hier auf konkrete Speichergrenzen - es ist nicht gerade sinnvoll, eine Diskette nur mit verschiedenen Fonts und Fontgrößen in Form von Bildpunkten vollzuschreiben.

Skalierbare Fonts arbeiten mit einer mathematischen Formulierung, die es dem Rechner ermöglicht, verschiedene Größen einer Schrift selbst auszurechnen.

Die Seitenbeschreibungssprache Postscript beispielsweise nutzt dieses Verfahren zur Steuerung des Druckers - aber bislang fehlte der Gegenpart, um auf dem Bildschirm ähnliches parat zu haben. Projekte gemeinsamer Entwicklungsarbeiten sollen hier Abhilfe schaffen; "Royal-Font" zum Beispiel wird als gemeinsames skalierbares Fontprojekt von Apple und Microsoft in der Szene als guter Schritt in diese Richtung gewertet. Das Projekt gilt als einheitliche Form der Definition skalierbarer Schriften und ihrer Ausführung.

So richtig spannend wurde die Frage der skalierbaren Fonts erst mit Auftreten der leistungsfähigeren 386er-Rechner. Denn grundsätzlich bedeutet die Forderung nach solchen in der Größe veränderbaren Fonts auch sehr rechenintensive Algorithmen; die herkömmliche Bitmuster-Verarbeitung ist wesentlich einfacher zu bewältigen. Der Trend geht nun noch dahin, vereinfachte Algorithmen zur Beschreibung einzusetzen, die dann in Echtzeit auf dem Rechner verarbeitet werden können.

Aus diesem Grund ist auch der Bereich der Grafikkarten in Bewegung. Sie werden immer stärker an die verfügbaren Grafikstandards angepaßt und mit neuen Aufgaben versehen - die bislang in der Hardware angesiedelten Jobs erledigt ein Controller besser, schneller und auch durch Spezialauslegung ökonomischer. Parallel dazu werden aber auch die postscriptfähigen Drucker mit immer stärkerer Leistung ausgestattet, so daß ein Leistungsschub in beiden Komponenten für mehr Finesse sorgt.

Die Controller selbst sind zur Erledigung der Jobs mit eigens entwickelten Grafikprozessoren ausgerüstet, die im höher abbildenden Bereich enorme Leistungssteigerungen mit sich bringen. Sehr gebräuchlich am Markt zum Beispiel ist der TMS34010 von Texas Instruments, beziehungsweise auch sein Nachfolger TMS34020. Auch Hitachi hat in diesem Bereich einen Grafikprozessor gut plaziert.

Das bisherige System funktionierte so, daß der Prozessor die Bilder selbst aufbaute und sie dann an die "relativ" dumme Standard-Grafikkarte übergab. Der Rechner wird bei dieser Bit map-Darstellung gleich zweimal belastet, nämlich zum einen mit der Ausrechnung der Grafik und zum anderen mit der Übertragung zur Grafikkarte. Einfacher für ihn stellt sich die Sache dar, wenn die Karte mit einem Grafikprozessor ausgestattet ist. In diesem Fall muß nur noch ein Kommando oder eine Kommandofolge an die Karte übergeben werden, zum Beispiel "male einen Kreis mit dem Durchmesser d". Die Geschwindigkeitsausbeute kann hier durchaus einen Faktor 4 bis 5 betragen. Positiver Nebenaspekt: Die CPU wird schneller frei für andere Jobs.

Die Karten, die heute mit VGA oder Super-VGA im mittleren Auflösungsbereich auf dem Markt sind, werden bei einem Kaufpreis von bis zu 1000 Mark meist nicht mit einem Grafikprozessor bestückt; um in den Genuß dieser Leistungserweiterung zu kommen, müssen mindestens 1000 Mark gezahlt werden . 10 000 Mark sind aber durchaus auch realistisch.

Für weitere Bewegung in diesem Markt sorgen aber nicht nur neue Verarbeitungsverfahren. Auch das geringe technische Alter verschiedener Standards birgt Raum für weitere Dynamik.

Als typisches Beispiel gilt wiederum X-Windows: Die Festschreibung der Definition führt zwar zu größerem Interesse an diesem Verfahren, aber X-Windows ist erst seit ungefähr einem Jahr richtig aktuell, so daß der Markt für intelligente Treiber und gute Grafikboards durchaus noch entwicklungs- und aufnahmefähig ist.

Tips für den Einstieg in Grafik

X-Windows und Presentation Manager gelten als Vertreter eines neueren Genres für interaktive Grafik; GKS, PHIGS, PHIGS + stehen ihnen als klassische Standards gegenüber. Die Vorgabe bei diesen Standards ist relaliv präzise und gefestigt, so heißt es, so daß sich hier das Interesse auf die reine Umsetzung konzentriert (siehe COMPUTERWOCHE Nr. 34, 1988, Seite 20).

Tips für den Einstieg in die Grafik kommen von Frank Thiemer, NEC-Supervisor im Bereich Product Marketing Monitore: Der erste Schritt bei der Umrüstung auf Grafik und auch Farbe sollte sein, sich zu überlegen, mit welcher Software nach dern Kauf der Grafikkarte gearbeitet werden soll.

Sind die Möglichkeiten der Software dann ausgelotet, so empfiehlt sich der Gang zum Fachhandel, denn die verschiedenen Möglichkeiten der Karten können vielfach nicht konkret aus dem Prospektmaterial abgeschätzt werden; optisches Empfinden bei der Umsetzung entscheidet mit.

Die Frage, ob zuerst ein Monitor oder eine Karte angeschafft werden soll, ist ähnlich der nach Henne und Ei, beide jedoch sollten aufeinander abgestimmt sein.

Die Karten unterscheiden sich vielfach in der Auflösung, sind aber, zumindest im Bereich VGA, bis zu einer Auflösung von 1024 Bildpunkten durchaus zur Darstellung qualitativ ansprechender Bilder brauchbar. Sie differieren oft in der Anzahl der verfügbaren Treiber und ihrer Kombination - hier ist auch eine eventuelle Rückversicherung, welche Treiber noch in Arbeit sind, sinnvoll.

Zudem kann der gleiche Chip auf verschiedenen Karten verschiedene Leistung bringen, je nachdem, wie er an die Umgebung angepaßt wurde.

Im nächsten halben Jahr, so Branchenkenner, werden zudem etliche Karten auf dem Markt erscheinen, die kompatibel sind zu dem IBM 8514-Adapter. Vor allem in den USA gibt es schon jetzt eine Unmenge Software für diesen Adapter, so daß die Fachwelt hier eine echte Ausweitung der Anwendungsmöglichkeiten erwartet.

Bei diesen höherwertigen Karten ist auch die flimmerfreie Darstellung mit 60 oder 70 Hertzprojektiert - und hier schließt sich der Kreis vom Graphic User-Interface zur qualitativ anspruchsvollen Bildverarbeitung. Die Bemühungen der Entwickler in diesem Sektor gehen dahin, zum Beispiel die non-interlaced Technik zu hervorkommen, bei der die einzelnen Bildzeilen nicht wie vom Fernsehen her gewohnt blockweise in der Reihenfolge 1, 3, 5,..und dann im zweiten Durchgang 2, 4, 6,.. zum Bildaufbau abgearbeitet werden, sondern in der Folge 1,2,3,4..

Insbesondere im Bereich Desktop-Publishing auf weißem Hintergrund trägt diese DarstelIungstechnik zu verträglichere Bildern bei.

Bildberechnungen dauern noch mehrere Stunden

Die Videonormen - CCIR für Schwarzweiß mit 50 Hz, PAL für Farbdarstellung, sowie in den USA RS-170 mit 60 Hz für Schwarzweiß und NTSC für Farbe die mit einiger Berechtigung propagiert werden, bieten zwar die Möglichkeit der Bildverarbeitung von einem entsprechenden Eingabegerät aus, bergen aber ohne Zusatzinvestition den Nachteil der Interlaced-Verarbeitung mit Flimmereffekt bei bestimmten Anwendungen. Aber auch hier stehen bereits eigene Prozessoren zur Verfügung, die das Flimmern durch eine höhere Auflösung beseitigen helfen.

So ist bei Intel gerade ein spezielles Board für solcherlei Animationsanwendungen aufgelegt das die Zeiträume für Bildberechnungen auf wenige Stunden drückt. Der Vorteil der Videonorm indes ist der geringe Preis mit dem Zusatznutzen, fast jede Kamera und jeden Monitor anschließen zu können.

Probleme bereitet der Realismus, der von guter Bildverarbeitung gefördert wird. Schatten, Lichtbrechungen, Reflektionen und ähnliches erfordern formeltechnisch einen so hohen Rechenaufwand, daß der Bildaufbau durch einen Normal-PC viel zu lange dauert und für den Anwender nicht akzeptabel ist. Um hier Abhilfe zu schaffen, bedienen sich die Ingenieure bei der Bildcodierung mittlerweile fast standardmäßig des Tricks, nur noch bewegte Teile von Bild zu Bild berechnen zu lassen. Aber auch diese Technik überfordert den Normal-PC bei vielen Anwendungen.

Die Zusatzgeräte, die für eine hochauflösende Bildverarbeitung eingesetzt werden müssen sind nicht gerade billig und sprengen für viele Anwendungen das Preis-/ Leistungsverhältnis, meint Klaus Gerber, Vertriebsbeauftragter der Stemmer PC Systeme GmbH aus Puchheim.

Für den Auswahlprozeß ist nach Gerbers Meinung neben einer exakten Analyse der angestrebten Tätigkeit und einer Prüfung der gewünschten Auflösung zudem aber auch wichtig, wie überhaupt die Grafik aus dem Rechner kommt: "Es ist zwar schön, wenn man auf einem Bildschirm toll designen kann, aber die Sachen nicht aufs Papier zu bringen sind."

Fazit: Gegen gutes Geld kann im Bereich grafischer Anwendungen absolut zufriedenstellende Qualität erzeugt werden; der Markt bietet die technischen Voraussetzungen und hat in den vergangenen Jahren Standards festgeschrieben, mit deren Erfahrungen Neues fundiert aufgebaut wurde. Dennoch ist gerade im Bereich hochqualifizierter Grafikanwendungen mit Akribie darauf zu achten, daß die einzelnen Komponenten aufeinander abgestimmt sind und sich wirklich sinnvoll ergänzen. Denn WYG schreibt sich bei Grafikanwendungen anders: WYSI-WYHG ("What you see is what you HOPE to get").

* Horst-Joachim Hoffmann ist freier Mitarbeiter der COMPUTERWOCHE in München