Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

18.09.1992

Technologie-Entwicklung der nächsten Jahre Raffinierte Technik allein ist kein Garant für den Markterfolg

Dr. Roger Lagadec ist General Manager im Bereich Data Systems Development bei der Sony Europa GmbH. Der Text basiert auf einem Referat, das Roger Lagadec im Herbst 1991 während eines Unisys-Seminars für Fachjournalisten in St. Paul de Vence gehalten hat. Die Bearbeitung besorgte Felix Weber.

An die Grenzen des Machbaren ist die moderne Industriegesellschaft noch lange nicht gestoßen. Neue Produkte, und seien die technisch noch so ausgeklügelt, müssen von

Konsumenten angenommen werden. Nur das entscheidet über Erfolg oder Mißerfolg einer technologischen Entwicklung.

Beschäftigung mit Technik ist eine objektivierbare Betätigung, und Ingenieure sind realistische Menschen. Nichts sollte also einfacher sein, als die nahe Zukunft bestimmter Technologien genau und sicher zu prognostizieren. In Wirklichkeit jedoch bieten beispielsweise Prophezeiungen aus dem Jahre 1983 nicht viel mehr als eine unterhaltende Lektüre, in der vieles, was die heutige Welt der Elektronik prägt, nicht vorhergesehen oder viel zu optimistisch angekündigt wurde.

Nicht einmal die Rückschau auf eigene Erfolge erlaubt immer eine einheitliche Deutung. Bei Sony zum Beispiel kursieren heute noch zahlreiche Geschichten darüber, wie und warum der Walkman zu einem solchen Hit wurde. Wenn aber nicht einmal über die technologische Vergangenheit ein Konsens da ist, so sind Ansichten zur künftigen Entwicklung der elektronischen Technologie erst recht spekulativ. Dies gilt auch für den vorliegenden Beitrag; die hier dargestellten Prognosen spiegeln die persönlichen Erfahrungen des Autors nach einem sechsjährigen Aufenthalt bei Sony in Japan wieder.

Japaner haben anderes Technologieverständnis

Die japanische Elektronikindustrie kennt keine Spezialisierung auf Informationstechnologie, wie das in Europa und den USA der Normalfall ist. Es existiert keine japanische Firma, die ausschließlich im Computerbereich tätig ist - im Gegensatz zu Apple, DEC oder IBM. Vielmehr herrscht die Ansicht vor, daß es nur eine elektrisch-elektronische Industrie mit einer gemeinsamen Technik und mit Spezialgebieten gibt - Unterhaltungselektronik, Computertechnologie etc. -, deren Grenzen nicht von vornherein feststehen. Dieser Grundkonsens spiegelt sich auch in den technischen Publikationen wider.

So kann man zum Beispiel in Japan unter dem gleichen Firmenlabel einen Kühlschrank und einen Supercomputer kaufen oder professionelle Videogeräte und Klimaanlagen. Ebenso produziert derselbe Hersteller Waschmaschinen mit Fuzzy-Logic-Steuerung und Fax-Geräte, Mikrowellenherde und flache Displays. Oder - um das Beispiel Sony zu nennen - eine Firma stellt Zahnbürsten, Kochplatten, Batterien, moderne Telefonapparate, kleine Videokameras robotergesteuerte Archivsysteme mit einem Fassungsvermögen von 25000 GB und natürlich den Walkman in allen Variationen her. Faszinierend ist dabei, daß es sich meist um eigene Produkte handelt und nicht um Fremdgeräte mit eigenem Firmenschild.

Die Vorstellung einer Nur-Computer-Firma ist in der Tat der japanischen Industrie fremd; eine Ausnahme bildet da nur IBM Japan. Die Großen der japanischen Computerbranche sind alle Elektronikgiganten. Umgekehrt ist die Vorstellung abwegig, eine Großfirma der elektronischen Industrie würde den Anschluß an die Computerwelt nicht suchen.

Bei der Überlegung über die künftige Entwicklung der Elektronikbranche sollte zwischen Technik, die möglich, oder besser: nicht unmöglich ist und realen Produkten, die am Markt erfolgreich sind, unterschieden werden. Zum technisch Möglichen gehören etwa militärische Großprojekte, bei welchen ein finanzieller Return on Investment naturgemäß nicht zu erwarten ist.

Praktische fernziele bestimmen die Richtung

Aus politischen Gründen hat sich Japan fast ausschließlich darauf konzentriert, kommerziell erfolgreiche Technologie voranzutreiben. Bereits in der Grundlagenforschung bestimmen daher praktische Fernziele, zum Beispiel ein portabler Farbprinter, die Großraumprojektion mit drei verschiedenfarbigen Lasern etc., die Richtung.

Bis zur Jahrtausendwende sind es nur acht Jahre - auf den ersten Blick eine überschaubare Zeitspanne. Doch auch seit 1983 bis heute ist nicht viel mehr Zeit vergangen. Schon eine flüchtige Betrachtung des technischen Jargons, der sich inzwischen eingeschlichen hat, etwa Fileserver, Graphical user Interface, Laptop, Palmtop, Hacker, Computervirus, Virtual Reality etc., zeigt, wie viele neue Begriffe in einer so relativ kurzen Zeitspanne nötig waren, um eine Wirklichkeit widerzuspiegeln, von welcher bis vor kurzem kaum jemand eine Vorstellung hatte.

Technologisch gesehen liegt das Jahr 2000 also in weiter Ferne. Kein japanischer Planer hätte Ambition, das Angebot an Jahre im voraus zu skizzieren. Acht Jahre könnten durchaus zwei Generationen von Floppydisks bedeuten, zwei Generationen von Farbdisplays für Laptops, mehrere Debakel und voraussichtlich einen Durchbruch beim hochauflösenden Fernsehen HDTV. Andererseits kann es sich kein führendes Unternehmen der Elektronikbranche leisten, nicht auch an die übernachte Generation von, Geräten und Medien zu denken - Dinge, die aktuelle Themen sein werden.

Die Erdbevölkerung läßt sich auf Jahrzehnte hinaus vorausberechnen. Dies ist eine echte Voraussage, also die Anwendung eines Modells, dessen Hauptannahmen als gesichert gelten. Im gleichen Sinne läßt sich der Fortschritt auf eng begrenzten aber essentiellen Gebieten der Technologie voraussagen, insbesondere bei der Halbleiter-Technologie. Die Hauptannahme ist dabei, daß immer kompaktere, dichtere und größere Chips einen Markt finden werden. So rechnet man alle fünf Jahre mit einer Vergrößerung der Schaltungsdichte um den Faktor 7. Im gleichen Zeitraum will man eine Erhöhung der Speicherkapazität pro Chip um den Faktor 10 erreichen.

Man geht auch davon aus, daß die Kosten solcher Entwicklungen heute schon bekannt sind, egal wo sie stattfinden. Dies ist zwar erstaunlich, aber auch gut erklärbar: Kein anderes Material wurde je von den Menschen so genau untersucht und beherrscht wie Silizium. Was allerdings Überraschungen nicht ausschließt: Zum Beispiel wurde erst kürzlich entdeckt, daß poröses Silizium Licht emittiert.

Aus der Entwicklung der Halbleiter-Technologie leitet man ab, daß die Rechenleistung des Computers weiter rapide ansteigen wird. Bisher belief sich der Zuwachs etwa auf den Faktor 20 pro Jahrzehnt, gekoppelt mit einer Kostenreduktion pro Leistung um den Faktor 10. Die Verwendung neuer Architekturen wie Massive parallel processing in Verbindung mit entsprechender Software könnte die Entwicklung noch weiter beschleunigen.

Im gleichen Sinne läßt sich der Fortschritt bei der Entwicklung von Speichermedien voraussagen. Harddisk, Floppydisk und Magnetband sind Medien, die seit vielen Jahren genau untersucht und auch ständig verbessert werden. Ähnlich wird es bei den optischen Platten sein. Der Markt dieser Medien gilt als absolut gesichert, auch wenn wesentliche Verschiebungen zugunsten immer kompakterer Produkte wahrscheinlich sind.

Zukunft mit billigen optischen Wechselplatten

Was sich auf dem Gebiet der Speichermedien abzeichnet, läßt sich zum Teil aus der Technologie der angekündigten Minidisk von Sony ableiten. Äußerlich einer Miniatur-Floppy in der Größe von 72 x 68 Millimeter ähnlich, bietet die Minidisk in der aufnahmefähigen, magneto-optischen Version Platz für 74 Minuten Musik.

Die Minidisk wird gegen Ende 1992 auf den Markt kommen. Geht man davon aus, daß

eine "blanke" Minidisk mit einer Stunde Spieldauer nicht viel mehr kosten dürfte als eine qualitativ hochstehende Metallbandkassette gleicher Spiellänge und daß man eine verwandte, vergleichbar kostengünstige Medientechnologie auch für optische Disketten findet, so könnte der Traum vom Laptop mit billiger, entfernbarer optischer Platte anstelle der heutigen Festplatte durchaus Realität werden. Weshalb ein Traum, wenn doch die Technologie absehbar ist? Weil ein großer Markt erst dann entsteht, wenn neben der Technologie noch vieles andere stimmt - von der Normierung bis zu den Kopierrechten.

Die Bandäufzeichnung macht ebenfalls große Fortschritte, aber keine Sprünge. Die optischen Datenträger lassen nur zu gerne vergessen, daß das digitale Band, gekoppelt mit der helikoidalen Aufzeichnung ("rotierende Köpfe"), zur Zeit noch die bei weitem dichteste Aufzeichnung pro Volumen garantiert. Entwicklungen aus dem Gebiet der digitalen Videotechnik haben dabei zu Kassetten geführt, die bis zu 96 GB Daten (ohne Datenkompression) fassen, wobei die Transferrate 32 MB/s beträgt, was einen direkten Anschluß an Supercomputer erlaubt.

Gekoppelt mit einer mechanischen Vorrichtung für den Zugriff auf einige hundert Kassetten, erlaubt diese Technik - sie hat die physikalischen Grenzen noch lange nicht erreicht - heute schon ein rechnergesteuertes Großarchiv, das auf kleinem Raum bis zu 25 TB Daten faßt. Zur Illustration: Dies entspricht der Datenmenge von 20 Millionen Disketten!

Harter Konkurrenzkampf um gigantischen Markt

Egal, ob auf Band oder Platte - die Massenspeicherung von Ton, Bild und Daten entspricht einem großen Bedürfnis, und der Absatz dieser-Technik ist gesichert. Computer werden immer mehr verwendet, um auch Bilder und Ton zu manipulieren.

Was sich früher mit ein paar Zahlen darstellen ließ, bedarf heute zumindest der grafischen

Darstellung in Farbe - und schon zeichnet sich die noch unscharf definierte Vision von "Multimedia" ab, bei der nur sicher ist, daß die KB von heute den MB von morgen werden weichen müssen. Auch CAD wird immer wichtiger mit seinen extrem aufwendigen Konstruktions-, Simulations- und Rechenprogrammen, deren Ergebnisse sich am besten als bewegte Bilder mit hoher Auflösung darstellen lassen.

Bis zum Ende des Jahrzehnts wird es immer kostengünstigere Schaltungen, Speicher-Chips und mechanische Massenspeicher geben. Die Kehrseite dürfte allerdings sein, daß nur wenige ganz große Hersteller übrigbleiben, die sich den entwicklungstechnisch aufwendigen Konkurrenzkampf werden leisten können.

Rund um den eigentlichen Rechner, die Silicon Engine mit ihrer ständig zunehmenden Leistung, ist noch viel Hardund Software im Einsatz. Zur Illustration bietet sich der Bildschirm an:

Es wurden in Japan unterschiedliche Technologien für die verschiedenen Displays (große, kleine, flache, mit niedriger Leistung oder höchster Auflösung etc.) erprobt, ohne daß die Spezialisten Klarheit darüber gewonnen hätten, welche Technologie sich schließlich durchsetzt.

Wird der von allen gewünschte Großbildschirm an der Wand ein Flüssigkristall-Display sein? Wie sieht der Bildschirm mit hoher Auflösung für den Desktop Computer des Jahres 2000 aus? Welche Technologie wird der Display des Pen-based PC haben?

Nicht nur zahlreiche Technologien kommen hier in Frage; auch Kosten, Größe, Leistung, Eigenschaften und die Attraktivität der resultierenden Produkte könnten derart unterschiedlich ausfallen, daß unzählige Szenerien denkbar sind. Es gibt einfach zu viele Parameter, keine klar erkennbare Lernkurve und schwer - einschätzbare Marktreaktionen. Also ist auch keine Prognose möglich - bis auf den Gemeinplatz, daß immer mehr Produkte, von der Stereoanlage bis hin zum hochauflösenden Fernseher, neue und attraktive Anzeigeflächen erfordern werden.

Ein mit text gefüllter Bildschirm beansprucht wenige KB. Will man jedoch hochauflösende Grafik verwenden, Standbilder oder gar bewegte Bilder zeigen, so ändern sich schlagartig die Größenordnungen der benötigten Speicherkapazität, der Rechenleistung und der Übertragungszeit.

Eine der sichersten Prognosen auf dem Gebiet der Computer ist, daß die Anwender bei der Arbeit, beim Spiel und auch bei der Unterhaltung immer mehr in Richtung Virtual Reality drängen. Sie wünschen sich eine Interaktion mit dem Rechner, die nahe an die Grenzen geht, die durch unsere Sinnesorgane gegeben sind.

Softwareraffinesse statt roher Tochno-Gewalt

Die Digitalisierung von Ton und Bild erfolgte zuerst mit eigens zu diesem Zweck konzipierten Geräten, und - gezwungenermaßen, da Verarbeitungsgeschwindigkeit und Speicherkapazität bei weitem nicht ausreichten - ohne Zuhilfenahme von Computerhardware. Der Not gehorchend, entwarf man damals - der Vorgang liegt ja fünf bis zehn Jahre zurück - einfache Schaltkreise, die mit einem Minimum an Verarbeitung aus einem analogen Signal eine abgetastete und digitalisierte Version lieferten.

Ein solches Verfahren gilt heute bereits als "brute force", als rohe Techno-Gewalt, als Technologie ohne Raffinesse. Mit dem Fortschritt der Halbleiter-Technologie und aufgrund theoretischer Arbeiten und zahlreicher Studien an reellen Ton- und Bildsignalen ist man heute erst in der Lage, bei der Codierung von Bild- und Tonsignalen intelligenter und sparsamer umzugehen, indem nach einer aufwendigen Analyse jene Signalanteile, die ohnehin nicht wahrnehmbar wären, gar nicht mehr dargestellt werden.

Daß dies prinzipiell möglich ist, lehrt uns Mutter Natur sehr anschaulich. Die Nerven, die die akustischen Signale dem Gehirn zubringen, übertragen bekanntlich nur eine sehr bescheidene Datenrate, gewährleisten jedoch sprichwörtlich Hifi-Qualität. Wir wissen auch, daß die Übertragungskapazität unseres Nervensystems bei Bildern um Größenordnungen niedriger ist als die 140 bis 216 Mbit/s der heutigen professionellen Normen.

Wenn Signaleigenschaften und Wahrnehmungsgrenzen keine Rolle spielen, so beansprucht man sehr hohe Datenraten, mit denen sich auch praktisch nicht vorkommende Signale darstellen und mit einer nicht mehr wahrnehmbaren Treue wiedergeben lassen. Übertragungskapazität in Mbit/s und Speicherplatz in GB sind aber so teuer, daß sich ein großes Maß an vertretbarer Datenkompression geradezu aufdrängt.

Die Disziplin der Datenkompression steckt zwar noch in ihren Anfängen; jedoch steht bereits fest, daß nach der ersten Welle der Digitalisierung weitere folgen dürften, bei denen anstelle eines unintelligenten, auf wendigen Digitalsignals ein intelligent verarbeitetes, sehr viel kompakteres Digitalsignal am Ende steht.

Bei der praktischen Einführung neuer Systeme spielt dies eine ausgesprochen große Rolle. Denn es wird auch in Zukunft wünschenswert sein, Bilder, Ton- und Fernsehsignale mit begrenzter Bandbreite zu übertragen - sei es, um die heutigen analogen Übertragungskanäle beizubehalten, sei es, um das künftige Programmangebot zu erhöhen. Sogar die erstaunlich erfolgreiche Compactdisk ist nur auf den ersten Blick ein Gegenbeispiel: Weil eine verhältnismäßig große Platte mit 12 Zentimetern Durchmesser gewählt wurde und weil gleichzeitig die flächenmäßig sehr kompakte optische Auf zeichnung zur Verfügung stand, konnte man es sich leisten, vorerst ohne Datenkompression zu arbeiten.

Vor allem europäische Forschungsresultate zeigen, daß sich bei Musiksignalen heute bereits mit einer Kompression um den Faktor 4 bis 8 sehr gute Ergebnisse erreichen lassen. Standbilder kann man 20fach komprimieren, ohne daß die Qualität erkennbar leidet. Bei der digitalen Ausstrahlung von HDTV-Signalen hoffen die Entwickler, sogar bei einer Kompressionsrate von 40:1 praktisch die volle Bildqualität erhalten zu können.

Wie werden diese Zahlen im Jahr 2000 aussehen? Bleiben sie gleich, oder gelten sie dann aufgrund wesentlich leistungsfähigerer Kompressions-Algorithmen als veraltet? Mitentscheiden wird nicht zuletzt der Markterfolg der ersten Systeme mit Kompression, zum Beispiel DAT, Minidisk, Digital Compact Cassette sowie einige Verfahren für Fernsehsignale mit hoher Auflösung.

Datenkompression erfordert Signalverarbeitung. Zwar wird diese in konkreten Produkten meistens als dedizierte Hardware realisiert, doch ihre Grundlage liegt in der Software. Die Rede ist von einem Randgebiet der Software. Andere Gebiete sind etwa Betriebssysteme, Computerarchitekturen, Anwenderschnittstellen, höhere Programmiersprachen, Kommunikationssoftware etc. Da fehlen erst recht Erfahrung, Lernkurven und gesicherte Absatzmärkte. Eine präzise Prognose auf all diesen Gebieten ist deshalb unmöglich.

Neue Software erzwingt teure Anpassungen

Ganz anders als bei der Hardware - bei der ja inzwischen akzeptiert ist, daß sie alle paar Jahre ersetzt wird - besteht bei der Software die Annahme, daß sie sich kontinuierlich und kompatibel zu früheren Versionen weiterentwickelt. Unter diesen Voraussetzungen scheint die unüberwindliche Marktkraft zu fehlen, welche die Wettbewerber zwingen würde, sich in kurzer Zeit auf bestimmte Sprachen, Betriebssysteme und Datenstrukturen zu einigen.

Kann man davon ausgehen, daß in Zukunft ein einziges Super-Betriebssystem entstehen wird? Wohl kaum. Dagegen sprechen auch die kurzfristigen Interessen der Firmen, welche die heutigen Systeme entwickelt haben. Während größere, anschlußkompatible Speicher-Chips keine Firmenpolitik gefährden, tangiert grundlegend neue Software bereits bestehende Programmbibliotheken und erzwingt oftmals teure Anpassungen. Daher ist der erhoffte geradlinige Weg zu Weltnormen in der Informationstechnologie alles andere als sicher.

Daß grafische Bedienungsoberflächen Gemeingut werden, scheint festzustehen. Aber die Vielfalt der Tätigkeiten, von denen man hofft, daß sie in Zukunft besser vom Computer unterstützt werden, ist derart groß, daß sich kaum nur die Maus, nur die Tastatur oder nur der elektronische Griffel durchsetzen werden.

Schwierig und faszinierend wird das Problem der Normierung auch deshalb, weil sich die bisher klar getrennten Welten langsam annähern, wenn auch niemand genau voraussagen kann, wie das konkret vor sich gehen wird.

Bisher klare und allgemein verständliche Grenzen - hier Kleincomputer, da Unterhaltungselektronik, dort Medien, drüben Telekommunikation dürften sich im kommenden Jahrzehnt aufheben.

Ein Computer des Jahrgangs 1983 konnte in der Regel nicht kommunizieren. Heute kann er Telefax-Meldungen empfangen und senden. Ein 83er PC hatte sicher nichts mit der Stereoanlage zu tun; heute jedoch entwikkeln die Hersteller beliebige Verbindungsmöglichkeiten zwischen Home Computer, CD-I, Stereoanlage, Fernseher, Telefon etc. Soeben ist der erste Data Diskman erschienen - das erste elektronische Buch. Sind die dazugehörigen Platten nun Bücher, Software oder Produkte aus der Unterhaltungsindustrie?

Der Bürorechner war Rechnen da; in Zukunft wird man ihn ebenso gut für Video-Kommunikation, Telefax, elektronische Post, Desktop publishing und vieles mehr gebrauchen wollen. Auf welchen Ausstellungen werden solche Produkte zu sehen sein? Im Gleichschritt mit der Einführung der Digitaltechnik merkt man allmählich, daß sich alle Bits gleichen - sie unterscheiden sich höchstens hinsichtlich Menge, Datenrate und Grad an Zuverlässigkeit.

Es gab eine Zeit, da waren alle Telefone drahtgebunden und einfach. Heute sind Haustelefone häufig rahtlos und mit Anrufbeantwortern versehen. Das portable Radiotelefon ist die vielleicht am schnellsten wachsende Kategorie. Das prinzipiell drahtgebundene Telefon von früher hat sich zum drahtlosen Modegerät weiterentwickelt. Beim Fernsehapparat ist es umgekehrt: Angefangen hat es mit Antennenempfang; heute sind in einigen Ländern Europas die meisten Fernsehgeräte ans Kabelnetz angeschlossen. Kommt gegen Ende des Jahrzehnts die unvermeidliche Digitalisierung der Programmverteilung dazu, dann werden die Radio- und Fernsehapparate zu Datenempfängern.

Neue Grenzen, neue Begriffe und auch neue Märkte: All dies ist sicher kein Nachteil für die japanischen Elektronikfirmen, die heute schon in der Unterhaltungselektronik, auf dem Computersektor und in der Fernmeldetechnik tätig sind.

Der Rückblick auf Produkte, die den Durchbruch geschafft haben, zeigt eine interessante Gesetzmäßigkeit. Die Fax-Maschine zum Beispiel gibt es seit langem, und ihr Durchbruch wurde auch seit langem prophezeit. Was nicht vorausgesagt wurde, war jedoch der Beginn ihres Siegeszuges.

Der westliche Markt reagierte lange Zeit zögernd. Der Durchbruch begann denn auch in Japan, wo die Leute schnell merkten, wie geeignet das Telefax für die japanische Schrift ist, und als die Besitzer kleiner Läden Fax-Maschinen einsetzten, um ihren Kunden das Bestellen zu erleichtern und selbst Personal einzusparen. Inzwischen ist das Homefax zum Statussymbol geworden.

Technik, Qualität und Kreativität

Auch der ungeheure Erfolg des Walkman beruht letztlich auf Kundenreaktionen, die nicht einmal die Strategen von Sony in ihr Kalkül hätten einbeziehen können: Wer hätte daran gedacht, daß der Walkman genau das war, was sowohl den Pendlern in Japan auf ihrem stundenlangen Arbeitsweg als auch den Amerikaner beim Jogging fehlte?

Erst die Kombination von richtiger Technologie, richtigem Preisniveau, richtigem Image und leicht verständlichem Kundennutzen hat in beiden Ländern zu einem Markterfolg geführt. Nicht anders war es bei der Compactdisk: Nach einer langen Zeit ohne Innovationen kam eine neue Schallplatte mit geringem Preisunterschied, in ungekonnter Tonqualität und mit den allen einleuchtenden, ausschlaggebenden Vorteilen des praktischen Gebrauchs im Alltag. Daß die Compactdisk digital ist- das große Novum zur Zeit der Einführung -, spielt aus heutiger Sicht eine eher untergeordnete Rolle.

Nicht die Technologie allein, sondern eine ausgewogene Kombination von Vorteilen ohne ersichtliche Nachteile für die Kunden bringen den plötzlichen Durchbruch eines Produkts und machen es damit zu einem Dauerbrenner - vielleicht bis ins Jahr 2000.

Deshalb auch der natürliche Schluß, daß nur jene Firmen eine Chance haben, die der Kreativität - inklusive dem kreativen Marketing und der kreativen Imagepflege - gleich viel Bedeutung beimessen wie der Technik und der Produktqualität.

Wie steht es nun mit den Produkten der nahen Zukunft? Worin liegen beispielsweise bei Minidisk und Digital Compact Cassette die evidenten Vorteile, die sie zum Marktrenner machen könnten? Werden die Japaner die gleichen Vorteile erkennen wie die Europäer und Amerikaner? Gibt es bei Digital Audio Tape ebenfalls eklatante, allen verständliche Vorteile, oder wird DAT zu einem High-end-Produkt?

Neben der unvermeidlichen und verständlichen Diskussion um technische Parameter wird sich eine einfache, aber viel entscheidendere Frage stellen: Sind die Produkte gut genug, daß die Menschen sie sich wünschen werden? Nehmen wir zum Beispiel D2-MAC in Europa. Existieren da, von einer theoretisch bestechenden technischen Strategie abgesehen, auch reale Vorteile? Ob es auf dem Unterhaltungssektor überhaupt gelingen kann, bestehende Systeme durch teurere abzulösen, die keinen allen verständlichen Preis- oder Leistungsvorteil bieten, ist eine berechtigte Frage. Wahrscheinlich dürfte sich HDTV erst dann etablieren, wenn der Aufpreis bescheiden, die Kabel identisch und das Programmangebot zumindest vergleichbar sind. Das hieße wohl eine digitale Lösung mit Datenkompression, unter Ausnutzung der oben erwähnten intelligenten Signalverarbeitung.

Die künftige Entwicklung der Elektronik allein aufgrund technologischer Betrachtungen voraussagen zu wollen, bedeutet, aus dem Bestehenden und auf der Basis des technisch Machbaren zu extrapolieren. Da betreibt man sprichwörtlich Science-fiction, wo Economic Realism am Platz wäre: Science, weil nur technische Aspekte berücksichtigt werden, und Fiction, weil die Hauptkraft - die Freude am Produkt, seine Akzeptanz, der Wille zum Kauf - außer acht gelassen wird.

Will man die Märkte miteinbeziehen, ist eine solche Extrapolation nicht sinnvoll, denn dort tritt die Strategie des Durchbruchs in den Vordergrund, eines nicht linearen Vorgangs, wie er im letzten Jahrzehnt beim PC, beim Fax, beim Funktelefon, beim Walkman, bei der CD und der portablen Videokamera erfolgt ist. Letztlich entscheidet sich dies an der Basis, Bottom up, nicht Top down, und die Entscheidungsträger sind alle potentiellen Konsumenten.