Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.


29.07.1994

Kritische Erfolgsfaktoren fuer Anbieter elektronischer Medien

Texte einscannen, auf CD-ROM pressen und via Computerbildschirm praesentieren - so einfach ist elektronisches Publizieren nicht. Da muessen Daten richtig strukturiert, die Retrieval-Software benutzerfreundlich und flexibel sein. Auf was es von der technischen Seite her ankommt, damit der Einstieg in die neue Medienform fuer den Anbieter zum Erfolg wird, beschreibt Hans-Gerd Schaal*.

Elektronisches Publizieren hat sich im Verlagsbereich spaetestens seit der letzten Frankfurter Buchmesse zum neuen Hoffnungs- und Wachstumstraeger der Branche entwickelt. In Industrie- und Dienstleistungsunternehmen herrscht eine aehnliche Aufbruchsstimmung, wobei hier die gleiche Technologie mit anderen Begriffen wie Corporate

Publishing, Inhouse Publishing, Organizational Publishing oder Electronic Document Publishing tituliert wird.

Unterschiede zwischen beiden Bereichen bestehen im Ziel. Den Verlagshaeusern geht es in erster Linie um den Ertrag; im Vordergrund stehen die Erweiterung des Sortiments und die Entwicklung neuer Maerkte. Elektronisches Publizieren stellt hier vornehmlich eine Marketing-Aufgabe dar. Im Corporate-Bereich bilden die Kosten (Reduk-

tion von Papier-, Druck-, Lager- und Transportausgaben) sowie die Qualitaetsverbesserung die entscheidende Triebfeder fuer den Einstieg in die neuen Publikationsformen. Vertriebserfolg spielt hier eine untergeordnete Rolle.

Der Fokus wird im folgenden auf technische Erfolgsfaktoren gerichtet, da es hier zahlreiche Gemeinsamkeiten gibt. Die Offline-Varianten elektronischer Publikationen stehen dabei im Vordergrund, da Online-Publikationen aufgrund der Datenuebertragungsrate zur Zeit nur bei reinen Texten von Bedeutung sind.

Die Ausgangsfrage sollte lauten: Welchen Mehrwert erbringt die elektronische Publikation gegenueber einem Printwerk, warum will man dem Anwender das Lesen von Fachinhalten ueber einen Computerbildschirm zumuten? Grundsaetzlich gilt: Je mehr Nachschlagecharakter Informationen besitzen und je staerker sich ihre Inhalte in kleine, ueberschaubare Wissenseinheiten gliedern lassen, desto besser sind sie fuer Electronic Publishing geeignet.

Aktualitaet das grosse Plus von Online-Publikationen

Hier kommen dann einige Vorteile zum Tragen:

- kompakte, platzsparende Datenhaltung,

- kostenguenstigere Distribution,

- schnellerer Zugriff,

- Moeglichkeit der vernetzten Darstellung des Wissens ueber Hypertextstrukturen,

- multimediale Darstellung,

- Interaktivitaet,

- Manipulierbarkeit sowie

- direkte Weiterverarbeitungsmoeglichkeit der Inhalte.

Ein Aktualitaetsvorsprung wird im allgemeinen nur bei Online- Publikationen erreicht.

Aus der Frage nach dem Mehrwert leiten sich die funktionellen Anforderungen ab, die eine Applikation bieten muss, um der entsprechenden Zielgruppe einen moeglichst hohen Nutzen zu bringen. Allerdings ist eine Ueberfrachtung an Funktionen, die haeufig aus einer "Uebermotivation" der Entwickler resultiert, dem Anwendernutzen ebenfalls abtraeglich, weil das Produkt zu erklaerungsbeduerftig und lernaufwendig geraet. Bewaehrt hat sich das schrittweise Vorgehen. Dem Benutzer wird mit der Erstversion eine Grundfunktionalitaet offeriert. Jedes Update erhaelt ergaenzende Features, die aus direkten Anwenderwuenschen resultieren.

Erfolgsbestimmend ist auch die Wahl zwischen CD-ROM und Disketten. Wichtige Kriterien sind die Verbreitung von CD-ROM-Laufwerken, das Datenvolumen und die Aktualisierungshaeufigkeit. Auch wenn in diesem Jahr zwei von drei neuen PCs ueber ein CD-ROM Laufwerk verfuegen, ist man von einer flaechendeckenden Ausstattung noch weit entfernt.

Fuer die CD-ROM sprechen

in jedem Fall ihre Robustheit, leichte Handhabung, sehr geringe Produktionskosten, der bessere Kopierschutz und die moegliche Nichtbeschreibbarkeit. Ihr Nachteil besteht trotz schnellerer Trippel-Spin-Laufwerke nach

wie vor in der sehr langsamen Zugriffszeit (zirka 100 Millisekunden) und der geringen Datenuebertragungsrate (zirka 300 bis 400 KB/s) im Vergleich zur Festplatte (10 bis 15 Millisekunden, 720 bis 1200 KB/s). Die CD er-

fordert optimierte Indexierungs- und Retrieval-Loesungen, die ueber konventionelle Datenbanktechniken wie Xbase oder SQL nicht zu erreichen sind. Des-

halb stellen Disketten oder Festplatten eine echte Alternative dar.

Die Schmerzgrenze liegt fuer den Anwender erfahrungsgemaess bei zehn bis 15 Disketten, was - eine gute Komprimierung vorausgesetzt - einer Datenmenge von 50 bis 60 MB entspricht. Bei haeufigen Aktualisierungen duerfte die Diskettenloesung allerdings auf Akzeptanzprobleme stossen, wenn jeweils ein kompletter Datenaustausch erforderlich ist.

Andere Verfahren, die nur die geaenderten Daten austauschen, erfordern sehr aufwendige Update- und Versionsverwaltungen in der Anwenderdatenbank. In geschlossenen Organisationen stellt in diesem Fall die Aktualisierung ueber das Netz eine Alternative zur Diskette dar.

Bevor es in der ferneren Zukunft zu einem reinen Netz-Publishing kommt, wird es als Zwischenstufe heterogene Loesungen geben: Die Erstlieferung erfolgt auf CD-ROM, die Updates werden per Diskette oder ueber Netzwerkverbindungen auf die Festplatte gespielt.

Das Aufbereiten der Inhalte macht haeufig mehr als 50 Prozent der Herstellungskosten aus. Der Input kann im Prinzip aus vier verschiedenen Quellen stammen: aus einer Print-Vorlage, aus Satz- beziehungsweise DTP-Systemen, Datenbanken oder direkt aus der "elektronischen Feder" des Autors. Die groesste Herausforderung liegt in der Datenstrukturierung. Die Daten werden mittels einer Datenauszeichnung in logische Einheiten zerlegt - in der Regel in Datensaetze und -felder -, um in der spaeteren Anwendung gezielte Recherchen zu ermoeglichen. Der Koenigsweg, was Komplexitaet, Kosten und Nutzen betrifft, besteht dabei in einer Vollstrukturierung auf Basis Standard Generalized Markup Language (SGML), einer standardisierten formalen Sprache zur Beschreibung von Dokumentenstrukturen.

Sofern die Informationen nur gedruckt vorliegen, bieten sich zwei Wege an: scannen oder neuerfassen. Eine akzeptable Qualitaet von 99,97 Prozent, also von drei Fehlern auf 1000 Zeichen, wird beim Scannen nur mit guten Textvorlagen und einer Aufloesung von 300 dpi und hoeher erreicht. Abgesehen von der manuellen Nachkorrektur, ist die Qualitaetspruefung nur mit Rechtschreibprogrammen moeglich - mit all ihren Maengeln: Sie pruefen nur Woerter, aber keine Semantik. Die Leistungsgrenzen werden mit eingescannten Tabellen und hochformatierten Texten in groesserem Umfang (Einrueckungen, Freistellungen etc.) erreicht. Sie erfordern eine umfangreiche Nachbearbeitung.

Waehrend bei Grafiken das Scannen fast immer sinnvoll ist, besteht bei Texten haeufig eine kostenguenstigere Alternative in der kompletten Neuerfassung durch spezialisierte Datenerfassungsunternehmen. Die Zeichenpreise beginnen bei ein bis zwei Mark pro 1000 Zeichen. Eine automatische Qualitaetskontrolle laesst sich dadurch gewaehrleisten, dass die Texte doppelt erfasst und anschliessend maschinell abgeglichen werden. Gleichzeitig koennen die Datenstrukturen beziehungsweise Layoutinformationen ueber entsprechende Textauszeichnungen direkt mit erfasst werden. Im Vergleich zum Scannen erfolgt die Digitalisierung und Datenstrukturierung in einem Arbeitsgang.

Sofern die Daten bereits in digitaler Form auf Satzbaendern oder DTP-Systemen vorliegen, besteht die Moeglichkeit der Konvertierung. Die Kunst liegt darin, aus den im Satz enthaltenen Layoutinformationen strukturelle Informationen fuer die Seitenbeschreibung abzuleiten. Leider hat hier die technologische Entwicklung der Satzsysteme ihre negativen Spuren hinterlassen. Format- beziehungsweise Systemwechsel fanden nahezu jaehrlich statt. Zudem werden haeufig inkonsistente Satzbefehle verwendet.

Meist ist bei der Konvertierung um ein Korrekturlesen des Datenmaterials und eine manuelle Nachbearbeitung nicht herumzukommen. Soll der Aufwand fuer das Konvertierungsprogramm vertretbar bleiben, betraegt die Erfolgsquote nicht mehr als zirka 80 Prozent. Werden die Kosten fuer das Entwickeln eines Konvertierungsprogramms und die manuelle Nachbearbeitung gegeneinander abgewogen, faellt die Entscheidung haeufig zugunsten einer Neuerfassung mit gleichzeitiger Datenstrukturierung.

Der eleganteste Weg zum Electronic Publishing fuehrt ueber neue Texte und Grafiken. Die Autoren koennen die Dokumente direkt in der gewuenschten strukturierten Form erstellen. Ihr Erfolg haengt dann allerdings entscheidend davon ab, wie weit sie sich in ein vorgegebenes "Strukturkorsett" pressen lassen. Hier bestehen beispielsweise grosse Unterschiede zwischen Verlagen mit freien Autoren und festangestellten Mitarbeitern in einer Dokumentationsabteilung. Der besondere Vorteil liegt jedoch darin, dass die Texte direkt in adaequater, vor allem hypertextgerechter Form fuer das elektronische Medium geschrieben sind.

Den Nutzen einer Electronic-Publishing-Loesung beeinflusst die Software, die den Zugriff, die Manipulation und Praesentation der Daten gestattet. Die Grundsatzfrage fuer diesen Erfolgsfaktor lautet: Standardanwendung oder Individualloesung, oder wieviel Anpassung an vorhandene Softwarebausteine ist notwendig, um einen Nutzen zu erzielen? Das Spektrum der Moeglichkeiten reicht von vollkommen starren Standardsystemen bis hin zu leistungsfaehigen Individualloesungen auf Basis von Softwarebibliotheken.

Grob betrachtet, existieren drei Gruppen: Eine erste Kategorie bilden die Viewer oder Browser. Sie erlauben eine Print-adaequate Bildschirmausgabe von linearen, buchorientierten Publikationen. Diese Viewer werden haeufig als Ergaenzung zu DTP- und Dokumenten- Management-Systemen angeboten. Der Mehrwert ergibt sich aus der kostenguenstigen Distribution, der Moeglichkeit zur Volltextrecherche und der Hypertextfaehigkeit. Sowohl die Benutzeroberflaeche als auch die Datenbankstrukturen sind in der Regel starr.

Eine zweite Gruppe bilden die feldorientierten Datenbank- und Retrieval-Systeme, die sich besonders fuer hochstrukturierte, katalogorientierte Publikationen eignen. Die Datenbankkomponente erlaubt eine flexible Strukturierung nach Datensatzfeldern und Datentypen. Parallel dazu erlaubt ein weitgehend standardisiertes Bedieneroberflaechen-Tool die Anpassung von Suchmasken und Dokumentenausgabe. Der Vorteil besteht hier in erster Linie in der feldorientierten Volltextsuche sowie den Boolschen Retrieval- Funktionen in Kombination mit speziellen Features wie Trunkierung, Abstandsuche, Relevance Ranking etc.

Standardsysteme aus der zweiten Gruppe ermoeglichen haeufig bereits einen flexiblen Uebergang zur dritten Gruppe, den Individualloesungen. Ausgangspunkt ist hier in der Regel eine Retrieval-Engine, die ein Application Programming Interface (API) fuer eine individuelle Gestaltung der Applikation und Bedieneroberflaeche bietet.

Individualloesungen sind vor allem dort gerechtfertigt, wo Spezialmodule beispielsweise fuer Berechnung, Auswertung oder Konfiguration notwendig sind oder laufende benutzerspezifische Weiterentwicklungen erwartet werden. Bei einer sauberen Trennung zwischen Bedieneroberflaeche, Programmkern und Datenbank bieten Individualloesungen darueber hinaus hohe Flexibilitaet und Unabhaengigkeit etwa, was den Wechsel der Plattform oder des Retrieval-Systems betrifft.

Letztlich ist daher immer zwischen der Verlockung einer kostenguenstigen Standardloesung und einer laengerfristig investitionsschuetzenden Individualloesung abzuwaegen.

Bereits bei der Produktdefinition sollte der Pflege und Aktualisierung des elektronischen Werks groesste Beachtung geschenkt werden. Viele Projekte scheitern daran, dass die Budgets bereits durch die Erstversion voll ausgeschoepft sind und die zum Teil aufwendigen Aktualisierungsarbeiten unterschaetzt werden.

Die Inhalte elektronischer Publikationen, die ihre Quellen in parallel publizierten Printmedien haben, werden meist ueber die auf das Printprodukt ausgerichtete Redaktions- beziehungsweise DTP- System gepflegt. Die einmal entwickelten Konvertierungs- und Indexierungsverfahren lassen sich fuer die Erstellung des elektronischen Pendants immer wieder nutzen.

Dies wird haeufig im Bereich der technischen Dokumentation praktiziert. Bei vollautomatischen Mehrfachpublikationen aus einem medienneutralen Datenbestand muessen dagegen aus Kostengruenden grosse Kompromisse an das Layout des Printwerks oder an den funktionellen Mehrwert des elektronischen Werkes in Kauf genommen werden.

Sofern die elektronische Publikation im Vordergrund steht beziehungsweise die einzige Veroeffentlichungsform darstellt, fallen die Zwaenge der layoutorientierten linearen Printwerke weg. Hier liegt es nahe, mit Redaktions- und Autorensystemen zu arbeiten, die auf die besonderen strukturellen und multimedialen Anforderungen des elektronischen Publizierens ausgerichtet sind. Dies betrifft zum Beispiel eine datenbankgestuetzte Hypertextverwaltung oder die Bearbeitung von Animation und Video.

Zusammenfassend laesst sich sagen, dass der Erfolg eines Projekts letztlich von der fruehen und richtigen Weichenstellung hinsichtlich der einzelnen Faktoren abhaengt. Die angefuehrten Erfolgskriterien lassen sich erfahrungsgemaess schon zu Beginn eines Projekts herausfiltern und dienen so als Basis fuer eine erste Abschaetzung der Machbarkeit und eine grobe Kostenkalkulation.

Lesehunger

Waehrend die vom Traegermedium unabhaengige Leseratte in der elektronischen Welt eher mehr Nahrung findet, sorgt sich der Buecherwurm um seine Zukunft. Doch trotz CD-ROM und Internet - so schnell wird Gutenbergs Buchstabensaat nicht zum reinen Datensalat.

Hans-Gerd Schaal ist Projektleiter fuer elektronisches Publizieren bei der Experteam GmbH in Dortmund.