Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

01.03.1985 - 

Die Entwicklung der Mikroelektronik muß mit verkraftbaren Änderungsraten vollzogen werden:

Immer in der Nähe einer kritischen Schwelle

STUTTGART - Perspektiven der digitalen Mikroelektronik, wo sie steht und wo sie hinfährt, skizziert Professor Otto Gert Folberth, Direktor des Bereiches Wissenschaft der IBM Deutschland. Der Wissenschaftler, der die Entwicklung über Jahrzehnte mitgestaltet hat, geht auf einige Kernpunkte ein.

Im letzten Jahrzehnt hat sich die Mikroelektronik zu einer neuen Schlüsselindustrie entwickelt. Grundlage hierfür ist die Siliziumtechnologie, die es gestattet, immer mehr Funktionen auf kleinen integrierten Chips unterzubringen. Dadurch wird das Preis/Leistungsverhältnis immer günstiger, so daß laufend neue Anwendungen von dieser Welle erfaßt werden.

Dieser Trend verlief und verläuft besonders erfolgreich bei digitalen Systemen. Die Digitaltechnik (der "Computer" und verwandte Systeme) ist nämlich ausgezeichnet durch hohe Störsicherheit, hohe Genauigkeit, hohe Zuverlässigkeit und große Variabilität und Flexibilität. Hierdurch - das heißt durch die Anpassung digitaler Prozessoren mittels Softwareprogrammierung an praktisch jede beliebige Aufgabe - eröffnete sich der Zugang zu einer stetig wachsenden Zahl von Anwendungen aller Art.

Unterschiedliche Strukturprinzipien

Bei dieser Materialfülle die Übersicht zu behalten und eine Ordnung in die Vielfalt zu bringen, ist nicht leicht. So gibt es viele Systeme unterschiedlicher Art und Größe für die weitgefächerten Anwendungen. Unter anderem sind zur Zeit allein schon über 400 verschiedene Mikroprozessoren auf dem Markt.

Glücklicherweise zeichnen sich aber einige allgemeine Tendenzen ab, die für digitale Systeme gewisse Ordnungsprinzipien erkennen lassen: Beispielsweise ist ein einfacher Mikroprozessor weniger komplex als ein Großrechner und bezüglich der Ein- und Ausgabe weniger komfortabel ausgestattet. für diese beiden typischen Extremfälle (Kleinrechner/ Großrechner) gibt es ganz unterschiedliche Konstruktionsmerkmale: Optimierungsprinzip

Mikroprozessoren verwenden einfache, billige Hardware; für Großrechner wird eine möglichst gute Ausnutzung der (teuren) Hardware angestrebt.

Informationsfluß

Bei Mikroprozessoren erfolgt die Verarbeitung der Einzelfunktionen seriell. Wenn immer möglich, wird Hardware auf Kosten der Rechengeschwindigkeit eingespart. Dies geschieht zum Beispiel durch Multiplexbetrieb, Mikroprogrammierung und ähnliches.

Im Gegensatz dazu wird bei Großrechnern eine möglichst hohe Rechengeschwindigkeit angestrebt; dies kann zum Beispiel geschehen durch zusätzliche Hardware und Komplexität, wie fest verdrahtete Hardware-Algorithmen, das "Pipelining", das heißt die gleichzeitige Verarbeitung mehrerer Instruktionen sowie durch Parallelverarbeitung. Charakteristisch dabei ist, daß der meist große und weit verzweigte Informationsfluß im System räumlich und zeitlich möglichst verteilt wird. Auslastungsgrad

Bei Mikroprozessoren sind im Normalbetrieb im Zeitmittel meist weniger als ein Prozent der Schaltungen in Betrieb, der Rest ist jeweils in Ruhe- oder Wartestellung. Bei Großrechnern liegt dieses Verhältnis etwa bei 25 Prozent oder höher.

Technologie

Mikroprozessoren verwenden MOSFET-Schaltungen hoher Integrationsdichte mit geringem Leistungsbedarf (zum Beispiel NMOS, neuerdings zunehmend auch CMOS). Hohe Schaltgeschwindigkeiten interessieren dabei erst in zweiter Linie.

Großrechner benötigen eine schnelle Technologie. Hierfür werden meist bipolare Schaltungen (zum Beispiel ECL) mit geringerer Integrationsdichte und höherem Leistungsbedarf verwendet. Diese Technologie erfordert aufwendige Packungs-, Kühl- und Stromversorgungselemente.

Speicher

Mikroprozessoren kommen im allgemeinen mit einem hochintegrierten Hauptspeicher aus, der aus dynamischen Ein-Element-MOSFET-Zellen besteht. Großrechner benötigen vielfach eine Mehrfachhierarchie, wobei insbesondere durch einen Pufferspeicher die (schnelle) Logik an den (langsamen) Hauptspeicher angepaßt wird.

Ein- und Ausgabeeinheiten

Für Mikroprozessoren in Kleincomputern verwendet man meist einfache Ein/Ausgabeeinheiten, die durch Multiplexbetrieb nicht überlappend synchron betrieben werden.

Großrechner haben meist leistungstarke, schnelle E/A-Einheiten, die asynchron, unabhängig und parallel arbeiten können. Für selbständig durchzuführende Teilaufgaben sind sie oft mit eigener "Intelligenz" ausgestattet.

"Mittlere" Systeme liegen zwischen den oben skizzierten Eckfällen: Sie sind komplexer als Mikroprozessoren, aber nicht so komfortabel wie Großrechner.

Systemfunktionen erleichtern die Benutzung

Mit der fortschreitenden Verbilligung und Verfügbarkeit von digitalen Funktionen werden neue Möglichkeiten erschlossen. Dabei ist zu beobachten, daß sich immer mehr der für Großrechner beschriebenen Strukturprinzipien nun auch bei Mikroprozessoren durchsetzen. Dies gilt insbesondere für die Architektur (bis zur 32 Bit breite Busse), das "Pipelining" und die Speicherhierarchien.

Noch wesentlicher aber sind zusätzliche Systemfunktionen, die der Benutzerfreundlichkeit dienen. Solche Hilfen tauchen ebenfalls meist erst bei Großrechnern auf, mit zunehmender Verfügbarkeit von höher integrierter, billiger Hardware später auch in Mikroprozessoren.

Hierzu gehören:

- Bedienungshilfen für einfachere Programmgestaltung, indem das Abstraktionsniveau durch den Einbau aufgabeilgerechter Kompilierer in die Systemhardware gehoben wird;

- automatische Fehlererkennung und Fehlerkorrektur durch weitgehende Verwendung von selbsttestender Hard- und Software;

- fehlertolerante Architektur und "sanfte Leistungsverminderung" durch redundante Hardware und entsprechende Software;

- und schließlich - noch etwas in der Zukunft liegend - selbstheilende Systeme, wofür redundante Hardware mit "diagnostischer" und "therapeutischer" Software benötigt wird.

Das Hauptproblem dieses Trends - das Hersteller wie Benutzer trifft - besteht darin, ob es möglich sein wird, einen "sanften Übergang" von den jetzigen Systemen zu den neuen Architekturen und Organisationen zu schaffen, ohne daß die bisher erbrachten immensen Investitionen in die Applikationssoftware verlorengehen.

Eine hochgradig parallel arbeitende Maschine zum Beispiel muß, um effektiv zu sein, sich selbst analysieren und entscheiden, welche Programmteile parallel bearbeitet werden können und müssen, um durch die Parallelität einen Geschwindigkeitesvorteil zu erzielen. Dieses geht weit über das bisherige "von-Neumann"-Konzept hinaus und erfordert eine völlig neuartige Software.

Emulatoren aller Art werden diesen Übergang erleichtern wie auch erschweren, und zwar als "Klotz am Bein", der durch mehrere Generationen mitgeschleppt werden muß. Die Innovationsrate kann letztlich sehr wohl mehr durch solche und ähnliche Probleme bestimmt werden als durch den "eigentlich" möglichen technischen Fortschritt.

Bei alledem muß es das Hauptziel der Systementwickler bleiben, die Schnittstelle zwischen Benutzer und System freundlicher zu gestalten. Zu oft noch muß sich der Benutzer den Eigenheiten einer spezifischen Maschine beugen, statt daß er die Schnittstelle seinen Bedürfnissen und seinem Arbeitsstil entsprechend anpassen kann. Den Herstellern bleibt gar nichts anderes übrig, als hier rasch und gründlich Abhilfe zu schaffen, wenn die stetig steigende Zahl der "Laien" als Anwender nicht enmutigt werden soll.

Very Large Scale Integration (VLSI) gibt auch für diese Probleme und Ziele das Zauberwort ab. Nur durch billigere Hardware, nur mit mehr Gattern und mehr Bits lassen sich effizientere und großzügigere Bedienungshilfen zu erschwinglichen Kosten entwickeln und anbieten. Abgesehen von spezialisierten Großrechnern für das "Zahlenschaufeln" wird in Zukunft sicherlich mehr und mehr Elektronik in diesem "peripheren" Bereichen Verwendung finden.

Das Vordringen der "Ein-Chip-Computer"

1971 war das Geburtsjahr des Mikroprozessors, also des "Computers auf einem Chip". Gegen Ende jenes Jahres kam der erste Intel-Mikroprozessor, der 4004, auf den Markt. Damit begann eine neue Ära der Elektronik; wenn man so will, die "eigentliche" Mikroelektronik. Gegenüber dem Multi-Chip-Computer hat der Mikroprozessor, also der "Ein-Chip-Computer", deutliche Vorteile, die seine Geburt zu einem bedeutenden Markstein in der Geschichte der Elektronik werden ließen:

Gleichartige Schaltungen vorausgesetzt, haben Ein-Chip-Prozessoren eine höhere Rechengeschwindigkeit als vergleichbare Multi-Chip-Prozessoren. diese resultiert aus kürzeren Signallaufzeiten zwischen den einzelnen Verarbeitungsstationen, da diese enger gepackt sind und daher kürzere Verbindungen haben. wie aber schon ausgeführt, haben moderne Multi-Chip-Großrechner dank einer aufwendigeren Technologie und Architektur immer noch eine vielfach höhere Verarbeitungsgeschwindigkeit als die gegenwärtig leistungsfähigsten Mikroprozessoren.

Bei Ein-Chip-Prozessoren entfallen viele Anschlußkontakte, da es keine Zwischen-Chip-Schnittstellen quer durch die Netzwerke gibt. Dies führt zu Einsparungen an Siliziumfläche, an Anschlußpositionen und an Verlustleistung, da auch die Zwischen-Chip-Treiber eingespart werden, die einen höheren Leistungsbedarf als normale Schaltungen haben. Als Folge ergeben sich Einsparungen an Sekundärkosten (Chipträger, Schaltkarten, Kühlelemente und so weiter). Außerdem erhöht sich hierdurch die Zuverlässigkeit.

All dieses führt dazu, daß die Größe, der Leistungsbedarf und die Kosten des (einen) Computer-Chips meist vernachlässigbar werden gegenüber der Größe, dem Leistungsbedarf und den Kosten der externen Speicher, der Ein/Ausgabe-Elemente und der mechanischen/elektromechanischen Teile eines Mikrocomputers (Personal Computers).

Die Koexistenz von Groß- und Kleinrechnern

Aus heutiger Sicht erscheint uns der vorhin erwähnte "uralte" 4004 extrem primitiv und leistungsschwach. Das konnte bei einem Integrationsgrad von etwa 3000 Transistoren pro Chip auch nicht anders sein. Inzwischen ist ein Integrationsgrad möglich, der sich einer Million Transistoren pro Chip nähert. Damit lassen sich weit leistungsfähigere und komplexere Mikroprozessoren entwickeln.

Diese neueren Mikroprozessoren enthalten nach und nach auch Funktionen, die man früher nur in den Multi-Chip-Großrechnern fand, allerdings gepaart mit all den oben skizzierten Vorteilen der Mikroprozessoren.

Die Mikroprozessoren übernehmen damit immer mehr die Rolle, die früher die kleinen Rechner hatten, sie eroberten sich langsam auch den unteren Bereich der Großrechner.

Vor einiger Zeit überschrieb die Zeitschrift "Datamation" einen Aufsatz provokatorisch mit dem Titel "Die Verschrottung der Großrechner" [1]. So verkürzt ist diese Aussage natürlich falsch. Sinnvoller und dem Inhalt des Artikels angemessener hätte es heißen müssen: "Die Mikrocomputer werden die Rolle der heutigen Großrechner übernehmen."

Es wäre aber völlig abwegig, deswegen anzunehmen, daß es bald keine Großrechner mehr geben wird, Dieses wird ganz sicher nicht der Fall sein, da es eine große Zahl neuer, komplexen Aufgaben in vielen Bereichen gibt, die nur darauf warten, durch leistungsfähigere Großrechner - die natürlich vom Fortschritt der Mikroelektronik auch profitieren - angepackt zu werden.

Für Groß- und Kleinrechner wird sich der Trend verstärken, Bedienungshilfen in der Hardware unterzubringen, anstatt spezialisierte, teure Programmierer einzusetzen.

In sinngemäßer Übersetzung sei hierzu aus einem Jubiläumsartikel zum zehnten Geburtstag des Mikroprozessors zitiert: "Die Zahl und Komplexität der Anwendungen nehmen schnell zu, die verfügbaren menschlichen Ressourcen, die benötigt werden, um diese Anwendungen zu entwickeln, wachsen sehr viel langsamer. Die Lösung dieses Problems besteht darin, die Leistungsfähigkeit der Mikrotechnologie zu benutzen, um den Programmierern zu ermöglichen, mehr zu tun, indem sie weniger tun." [2]

Technik läßt sich nur durch Technik humaner machen

Die Entwicklung schreitet weiter fort, sie wird spannend bleiben. Auf Überraschungen müssen wir gefaßt sein, auch bezüglich der gesellschaftlichen Auswirkungen.

In dieser Beziehung ist die Mikroelektronik zum Reizwort geworden. Alle Welt spricht heute von ihr und ihrem raschen Eindringen in alle Lebensbereiche. Dieser Trend wird von machen positiv und von anderen eher negativ gesehen, je nach Veranlagung, Wissensstand und Vorurteilen. Die gängigsten Schlagworte sind dabei einerseits:

Die Mikroelektronik befreit von harter und monotoner Routinearbiet; sie ermöglicht bessere Kommunikation und Information durch neue Techniken und neue Medien; sie erleichtert das tägliche Leben durch angepaßte, intelligente, preiswerte und transportable Technologie.

Soweit die positiven Seiten, denen aber auch negative gegenüberstehen: Die Mikroelektronik führt zur Entfremdung des Menschen und zur Schwächung zwischenmenschlicher Beziehungen durch eine überzüchtete, leblose Technik; sie trägt bei zur Vernichtung von menschlichen Arbeitsplätzen durch Rationalisierung und durch den Einsatz von Robotern; sie beschleunigt die Destabilisierung unserer Gesellschaft durch Reizüberflutung und ein unkontrollierbares Überangebot an minderwertiger, überflüssiger, manipulierbarer "Information".

Zur Zeit wird zunehmend das Arbeits- und Familienleben größerer Bevölkerungsteile durch die Mikroelektronik erfaßt. Einen Großteil dieses Personenkreises trifft diese "Elektronisierungswelle" ohne ausreichende Vorbereitung. Es fehlt an der nötigen Vertrautheit, da die jetzt plötzlich Betroffenen nicht langfristig lernend oder arbeitend in diese Entwicklung eingebettet waren.

So massiv und unvorbereitet dieser Trend aber auch viele treffen wird, so werden - insgesamt gesehen die neuen elektronischen Geräte und Systeme von der Gesellschaft nach und nach akzeptiert werden. Der Umgang mit ihnen wird so selbstverständlich werden, wie es in anderen elektronischen Bereichen (Radio, Telefon, Fernsehen) schon der Fall ist.

Diese Entwicklung wird nicht stetig verlaufen, sondern durch Phasen schnellerer und langsamerer Akzeptanz - sehr wahrscheinlich auch sogar durch zeitweilige Rückschläge gekennzeichnet sein. Ein Beispiel mit Akzeptanzschwierigkeiten aus der jüngeren Geschichte, finden wir beim Komplex des Datenschutzes und der Sicherung der Privatspähre.

Mißbrauch der Technik läßt sich nie völlig vermeiden

Es wäre aber abwegig anzunehmen, daß Problemlösungen auf diesen Gebieten mit einem Rückzug aus der Technologie zu meistern wären, wie es zum Beispiel von technophoben Kreisen propagiert wird. Vielmehr wird das Gegenteil eintreten, daß nämlich nur mit vermehrtem technologischem Einsatz befriedigende Lösungen zu finden sein werden. Technik läßt sich besser, sicherer und humaner nur durch Technik machen.

Dies gilt beispielsweise auch für das Problem der Computerkriminalität. Jede flächendeckende, massenerfassende Technik bringt spezifische Mißbrauchsmöglichkeiten mit sich, die nur durch spezifische, technologiegerechte Maßnahmen bekämpft und erschwert, aber nie gänzlich vermieden werden können. Zwar könnte man technisch eine hunderprozentige Datensicherheit erreichen, aber nur mit viel Aufwand und auf Kosten der Benutzerfreundlichkeit. Es sind also jeweils tragbare, zumutbare und praktikable Kompromisse zu suchen und zu finden. Probleme und Lösungen auf diesem Sektor sind keineswegs neu; sie müssen nur dem jeweiligen Stand der Technik angepaßt werden, und zwar dem beider Seiten: dem der Schutzbedürftigten und dem der Mißbraucher. Insgesamt gesehen ist das zumutbare Verhältnis Nutzen/Mißbrauch sicher von Kulturkreis zur Kulturkreis unterschiedlich, aber kaum technologieabhängig. Den jeweiligen Bedürfnissen entsprechend läßt es sich durch gezielte technologische Maßnahmen einpendeln.

Der Mikroelektronik verdanken wir eine starke Ausweitung der Informationssysteme. Dabei sind wir jedoch ständig in Gefahr, diese objektiv gegebenen Möglichkeiten subjektiv nicht sinnvoll zu nutzen. Wer kennt nicht die Karikatur des armen Managers oder Spezialisten, der vor zigtausend Seiten Computerausdrucken sitzt und nicht weiß, was er damit tun und wo er anfangen soll. Die Entwicklung ist aber über dieses Stadium der "Computer-Vertopfung", wie sie der bekannte amerikanische Management-Theoretiker Peter Drucker nennt, schon hinweggeschritten.

In vielerlei Form und mit unterschiedlicher Organisation

Auch hier ist die Losung durch mehr, nicht durch weniger Technologie möglich geworden. Die Antwort erfolgte durch die Einführung hierarchischer, datenreduzierender interaktiver Dialogsysteme mit verteilten Datenstationen. Wie wir alle wissen, ist eine große Informationsmenge an sich sinnlos. Um nutzbar zu sein, muß sie irgendwie sinnvoll, verständlich und übersichtlich aufgearbeitet werden, - dank der Mikroelektronik eine zunehmend maschinelle Angelegenheit.

Informationssysteme gibt es in vielerei Form und mit unterschiedlicher Organisation. Diese Vielfalt mit unabhängigen oder nur lose gekoppelten Systemen und Netzen wird einen totalen "Informationskollaps" verhindern, wie er von manchen Informationsapokalyptikern an die Wand gemalt wird. Eine solche Befürchtung wäre wohl nur begründet, wenn man es mit einem einzigen, weltweiten, einheitlichen, zentral gesteuerten, fest gekoppelten Informationssystem zu tun hätte. Die Realität sieht jedoch anders aus. In der Praxis hat sich das Rezept bewährt und durchgesetzt: So viel Dezentralisation wie möglich, so wenig Zentralisation wie nötig. Dieses Prinzip greift durch bis zum sich gegenwärtig heranbildenden informatorischen "Heim-Cockpit", das mit eigener Intelligenz und mit Intelligenz aus der Steckdose und wahlweise und sich ergänzend arbeiten kann.

Sicherlich wird es anfängliche Schwierigkeiten mit dem Zugriff und der Verfügbarkeit über zentralisierte Serviceleistungen, wie zum Beispiel Bildschirmtext, geben. Aber nicht alle Funktionen aller Datenstationen werden jeweils gleichzeitig ausfallen. Außerdem werden sich Service und Verfügbarkeit zunehmend verbessern. In der Anfangszeit des Telefons war die Leistungsfähigkeit dürftig und die Verfügbarkeit eher schlecht als recht. Beides ist heute auf einem allgemein akzeptierten Niveau.

Mikroprozessoren - Job-Killer oder Job-Knüller?

Viel diskutiert wird heutzutage die Frage, die mit dem Slogan umschrieben werden kann: Sind Mikroprozessoren Job-Killer oder Job-Knüller? Die richtige Antwort lautet: Beides! Stets verdrängen innovative neue Produkte ältere Produkte, deren Herstellung und Vertrieb. Sie vernichten damit Arbeitsplätze, gleichzeitig schaffen sie aber neue Arbeitsplätze.

Die mikroelektronische Revolution unserer Tage wird mit Sicherheit zweierlei bewirken:

Sie wird berufliche Umschichtungen zur Folge haben: Zur Zeit betroffen sind zum Beispiel der Zeitungsdruck, die Fertigungsindustrie, die Automobilbranche, die Banken und andere mehr und sicherlich in zunehmendem Maße auch die Büroberufe. durch Umschulungen und Umsetzungen, die nicht unbedeutend sein werden - aber keineswegs zu sozialen Unruhen führen müssen -, dürfte dieses Problem zu bewältigen sein.

In der Datenverarbeitungsindustrie erleben wir eine Umschichtung von der Hardware zur Software. Die Anzahl und Komplexität der Anwendungen wächst schneller als die menschlichen Ressourcen, die benötigt werden, diese Anwendungen zu entwickeln. Auch hier besteht die Lösung des Problems wieder in mehr Technik, nämlich darin, die zunehmende Leistungsfähigkeit der Mikroelektronik zu benutzen, um den Programmierern zu ermöglichen, "mehr zu tun, indem sie weniger tun".

Die Mikroelektronik wird insgesamt zur Erleichterung der Arbeit und der Kommunikation beitragen. Während die klassische industrielle Revolution Vorstädte und Pendler erzeugte und eine Trennung von Arbeitszeit und Freizeit zur Folge hatte, so dürfte die mikroelektronische Revolution die Arbeit wieder ins Haus bringen (Heim-Terminal). Arbeitszeit und Freizeit rücken räumlich und zeitlich wieder zusammen. Dabei ein neues Gleichgewicht zu finden, ist weniger ein technologisches, als ein politisches und soziologisches Problem. Unser gegenwärtiges Gesellschaftssystem dürfte genügend Mobilität und Felxibilität aufweisen und hiermit langfristig fertig werden.

Präzise Aussagen sind kaum möglich

Präzisere Aussagen über die langfristigen Auswirkungen der Mikroelektronik zu machen ist kaum möglich. Daß aber diese Auswirkungen gewaltig sein werden, darin stimmen die Fachleute überein. "Der Mikroprozessor verwandelt die Struktur unserer Gesellschaft, indem er die Art und Weise verändert, wie wir Informationen übermitteln und verwenden, wie wir miteinander kommunizieren, wie und wo wir arbeiten. Diese Veränderungen haben gerade erst begonnen, und es wird Dekaden dauern, bis wir den Einfluß des Mikroprozessors auf unsere Gesellschaft voll beurteilen können. Es ist jedoch schon jetzt mit Sicherheit zu sagen, daß eine Welt mit hunderten von Millionen Computern anders sein wird als die Welt, wie wir sie kannten." [2]

Man hört gelegentlich Stimmen, die in der modernen Technologie schlechthin eine Gefahr für die Demokratie sehen. Dabei ist es eher umgekehrt. Ohne arbeitssparende technologische Methoden hätten sich demokratische Strukturen nicht, entwickeln können. Umgekehrt bedürften diktaturen und menschenentwürdigende Organisationsformen nicht der modernen Technologie. Beispiele aus der Vergangenheit sind leicht zu finden.

Selbstverständlich kann man mit modernen Informations- und Kommunikationstechniken perfektere Überwachungs- und Unterdrückungssysteme aufbauen als früher. Andererseits jedoch werden die Menschen gerade durch die modernen Informationsmedien und durch die Verkürzung und Humanisierung der Arbeit stark für mehr individuelle Freiheit konditioniert, so daß man Rückfälle ins Mittelalter wohl kaum noch zu befürchterr hat, jedenfalls nicht auf weltweiter Basis. Nur mit einem milden Überfluß - durch technisch-wirtschaftliche Prosperität - gibt es Wahlmöglichkeiten, gibt es Freiheit und Demokratie.

Es liegt am Menschen, welcher Weg eingeschlagen wird und ob die positiven oder negativen Aspekte einer grundsätzlich immer ambivalenten technologischen Entwicklung überwiegen werden. Es besteht durchaus Hoffnung auf einen insgesamt positiven Trend.

Das Aufregende ist nicht die Ambivalenz, sondern die Geschwindigkeit

Das Aufregende an der Mikroelektronik und ihren gesellschaftlichen Auswirkungen ist nicht die oben erwähnte Ambivalenz. Diese Eigenschaft ist eigentlich allen technologischen Schüben immanent. Die moderne Industriegesellschaft an sich ist in diesem Sinne ambivalent, gewissermaßen auf einer übergeordneten Stüfe: seit der Vertreibung aus dem Paradies und seit der Erfindung des Rades. Das wirklich Aufregende an der Mikroelektronik ist vielmehr die Geschwincligkeit, mit der sich die Entwicklung vollzieht, und ihre phantastische Vielfältigkeit und ihre immense Verästelung.

Auf uns allen lastet daher eine große Verantwortung. Nur wenn wir mit beträchtlichen Innovationsraten unsere Produkte laufend verbessern, werden wir gegen vielfältige Konkurrenz bestehen können. Diese Entwicklung muß aber stetig vollzogen werden, mit verkraftbaren Änderungsraten, damit die Mitmenschen nicht zu sehr schockiert werden und sich die Entwicklung nicht destabilisierend auf das Gemeinwesen auswirkt. Wir bewegen uns dabei allerdings in der Nähe einer kritischen Schwelle, die wohl dann erreicht wäre, wenn die mittlere Lebensdauer ganzer Berufszweige kürzer würde als das mittlere Arbeitsleben der darin Tätigen.

Hier den richtigen Weg zu finden ist sicherlich schwer aber, wohl nicht unmöglich.

² Noyce, R.N.; Hoff jr., M. E.: A History of Mikcroprocessor Development at Intel. IEEE MICRO, Februar 1981, S. 8-21.

Professor Dr. Otto Gert Folberth

Studium der Physik an der TH Stuttgart. Von 1952 - 1960 wissenschaftlicher Mitarbeiter der Siemens-Schuckert-Werke AG in Erlangen. Ab 1961 Leiter der Halbleiter- und Prozeßentwicklung bei der IBM Deutschland. 1978 und 1979 Mitglied des Corporate Technical Committee der IBM. Anschließend Leiter der Komponententechnologie, und seit Oktober 1983 Direktor und Leiter des Bereiches Wissenschaft der IBM Deutschland. Seit 1968 Lehrauftrag an der Universität Stuttgart. Autor zahlreicher Publikationen Ober Themen der Halbleiterphysik und Mikroelektronik.