Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

31.10.1986 - 

Umsetzung eines elektronisch gespeicherten Textes in Echtzeitverarbeitung:

Sprachsynthese sucht den Weg in die Praxis

ESCHBORN (CW) - Die elektronische Nachahmung menschlicher Sprache gewinnt zunehmend an Bedeutung: Inzwischen ist die Sprachsynthese aus dem reinen "Spiel - und Experimentalstadium" herausgewachsen und spiegelt eine breite kommerzielle Anwendungspalette wider. Zu diesem Ergebnis kommt die International Data Corporation (IDC) im zweiten Teil ihrer Studie "Speech Recognition & Speech Synthesis" (siehe auch CW Nr. 42 vom 17. Oktober 1986, Seite 18)

Als Einsatzgebiete für Sprachsynthese nennen die Marktforscher beispielsweise Behindertenhilfe, computergestütztes Lernen und Telefonserviceleistungen. Sprachsynthese sei somit die sprachliche Umsetzung eines elektronisch gespeicherten Textes in Echtzeitverarbeitung.

Den Gesamtmarkt für Sprachsynthese unterteilt die IDC in drei Segmente: In der Größenordnung zwischen 100 und 300 Dollar bewegt sich der Low-end-Bereich. Die Midrange-Systeme kosten zwischen 3000 und 9000 Dollar, während sich der High-end-Sektor an der 20 000-Dollar-Marke orientiert.

Der Wert der Auslieferungen im Jahre 1985 belief sich der Studie zufolge auf weltweit 22,388 Millionen Dollar. Dabei entfielen 49 Prozent auf den Low-end-Bereich, der Midrange-Sektor machte 46 Prozent des Marktvolumens aus, während auf das High-end-Geschäft 5 Prozent entfielen. Bis 1990 soll sich dieses Verhältnis allerdings drastisch ändern: Den Löwenanteil dürften mit 78 Prozent die High-end-Systeme für sich verbuchen, während im Low-end- und Midrange-Bereich mit einem Rückgang auf 6 beziehungsweise 16 Prozent zu rechnen sei. Aus diesen zahlen werde ersichtlich, daß im unteren und mittleren- Marktsegment trotz steigender Auslieferungen der Zenit spätestens bis 1989 überschritten sein müßte. Längerfristig zeige nur der obere Marktbereich ein steigendes Marktpotential.

Entscheidende Bedeutung für die Verbreitung von Sprachsynthesesystemen hierzulande werde neben der Deutschen Bundespost als Institution auch die Innovationsfreudigkeit der deutschen Bürotechnikanbieter haben.

Die Palette der Anbieter unterteilen die IDC-Forscher in Start-up-Unternehmen wie Artic, Currah, First Byte, Mimic, Sweet Micro Systems und Techmar und in DV-Zulieferer wie Intel, National Semiconductor, General Instruments und Votrax. Hinzu kommen von seiten der Hardwarehersteller Anbieter wie Digital Equipment, Texas Instruments, NEC und Panasonic.

Die Erfolgschancen der Sprachsynthese führen die Marktforscher vor allem auf zwei Gründe zurück: Das einzige weltweit verfügbare Kommunikationsnetz, das bis an alle Arbeitsplätze und bis in die Wohnungen reicht, ist das Telefonnetz. Eine aktive Informationstechnik, die über die bloße Übermittlung von Daten hinausgehen soll, müsse folglich die Erzeugung von Sprache einschließen, um sich langfristig behaupten zu können.

Die Schnittstelle zwischen Mensch und Computer, so die IDC-Studie weiter, besteht heute fast ausschließlich aus visuellen Komponenten. Dem Bildschirm komme hierbei eine zentrale Aufgabe zu. Es sei jedoch abzusehen, daß sich die Mensch-Computer-Schnittstelle im Laufe der Zeit einem Mensch-Mensch-Interface annähern werde. Die Zukunft stellen sich die Analysten deshalb folgendermaßen vor: Auf dem Bildschirm erscheint ein rechneranimiertes Gesicht, das die Mimik eines Menschen simuliert und mit dem sich der Benutzer in natürlicher Sprache unterhalten kann.

Historische Entwicklung der Sprachsynthesesysteme

1950er

Ungefähr zur gleichen Zeit entstehen in den USA, in Großbritannien und in Schweden Systeme, die Sprache Elektronisch nachahmen. Die Programmierung erfolgt "nach Gehör".

1961

In Großbritannien entsteht die erste Software mit einem Algorithmus zur Spracherzeugung auf phonemisher Basis.

Mitte 1970er

Am MIT werden Systeme zur Zerlegung und Umsetzung von Text in Phoeneme entwickelt.

1976

Dennis Klatt, Wissenschaftler am MIT, vergibt an das Unternehmen Speech Plus eine Lizenz zur Vermarktung des von ihm entwickelten Text-Sprach-Algorithmus.

Speech Plus stellt eine Reihe kommerzieller Produkte mit Spracherzeugung vor.

1983-1984

Klatt entwickelt für DEC auf Basis des TI-Signalprozessors 320 ein Prototypsystem, das Text in annähernder Echtzeit in Sprache umsetzen kann. Der ursprüngliche Algorithmus wird zur Verbesserung der Sprachqualität immer weiter verfeinert.

ab 1982

DEC, Speech Plus, First Byte, NEC, Vortrax und andere entwickeln Sprachsynthezesysteme, Unternehmen wie Texas Instruments, Wang oder Olivetti nehmen Lizenzen auf die Technologien.

ab 1984

Die Phase der aktiven Vermarktung beginnt.