Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.


25.02.1994

Kognitionswissenschaft in Deutschland unterrepraesentiert Philosophie ohne Computer auf dem Weg ins Fass des Diogenes Von Horst Weise*

Seit langem raetseln die Kluegsten der Klugen, warum sich das Begreifen so schlecht begreifen laesst. Eine neue akademische Disziplin will nun Licht in die Sache bringen. Sie nennt sich Kognitionswissenschaft und arbeitet mit moderner, naturwissenschaftlich gepraegter Systematik alte philosophische Themen auf. Kognitionswissenschaftler bedienen sich des Computers - praktisch wie theoretisch.

Ziel der Kognitionswissenschaftler ist, das menschliche Denkvermoegen so weit wie moeglich als Computersimulation nachzubilden, um so ein klareres Bild von der Arbeitsweise des menschlichen Gehirns zu gewinnen.

Ueber Geist und Bewusstsein wird seit mehr als 2000 Jahre spekuliert. Frueher war das die Domaene der Philosophie, einer Koenigswissenschaft, wie sie sich stolz nannte. Seit dem Aufkommen der Naturwissenschaften im letzten Jahrhundert ist der Einfluss der Philosophen dramatisch gesunken. Mit dem Computer koennte er wieder wachsen, vorausgesetzt, die Philosophen erkennen ihre Chance.

Bisher ist das nur in den USA der Fall, keinesfalls in Deutschland. Ignoriert die Philosophie weiter den Computer, werden sich die Kognitionswissenschaftler selber ihre Philosophie erarbeiten, wie das in anderen Einzelwissenschaften schon der Fall ist. Die Philosophen haben also eine historische Chance, auf einen neuen, in die Zukunft fahrenden Hochgeschwindigkeitszug aufzuspringen - oder sie bleiben in ihren Elfenbeintuermchen sitzen und verdaemmern dort.

Intelligenz nur in Koepfen oder im ganzen Universum?

Die Gemeinde der Kognitivisten setzt sich heute aus Computerwissenschaftlern, Psychologen, Philosophen, Sprachwissenschaftlern, Neurophysiologen und Anthropologen zusammen. Den Radikalsten geht es darum, ob Intelligenz nur in Menschenkoepfen steckt oder im ganzen Universum umherschwirrt - etwa so wie Hegels Weltgeist oder Einsteins Energie.

Ein gemaessigterer Forschungsansatz lautet, durch Computersimulation verschiedener geistiger Leistungen koenne deren Zustandekommen besser verstanden werden, und nur darum gehe es. Das ist die Ebene des Begreifen des Begreifens. Ob Maschinen im menschlichen Sinne denken und verstehen koennen, bewegt diese Forscher wenig bis gar nicht. Doch gerade diese Frage wirbelt in der Oeffentlichkeit immer wieder den groessten Staub auf.

Der Mathematiker Marvin Minsky vom Massachusetts Institute of Technology (MIT) in Cambridge (USA) bietet eine klassische Antwort zu diesem Fragenkomplex. "Kuenstliche Intelligenz", sagt er, sei die "Wissenschaft, Maschinen dazu zu bringen, Taetigkeiten zu vollziehen, die vom Menschen Intelligenz verlangen wuerden."

Bei dem Versuch herauszufinden, was menschliche Intelligenz ist, wie Denken funktioniert und aus was der Geist besteht, muss die Avantgarde der Informatiker allerdings tief in die Trickkiste greifen. Und das ist der Punkt, wo sie um den Rueckgriff auf die alten Philosophen nicht herumkommt.

In der ersten Zeit geschah dies fast ausschliesslich als Negation der philosophischen Standpunkte. Jetzt, wo die Kognitionswissenschaft an Reife gewonnen hat, treten die Computerfundis etwas zurueck und die Besonnenen in den Vordergrund. Sie schuerfen mit Vorliebe im Ideengut von Kant, Descartes, Wittgenstein, Heidegger und Gadamer.

Wie das anfaenglich aussah, laesst sich bestens am Beispiel der beiden Professoren Allen Newell und Herbert Simon vom Fachbereich Psychologie und Computerwissenschaft der Carnegie-Mellon- University, Pittsburgh/Pennsylvania, demonstrieren. Bei beiden handelt es sich um hoechst angesehene Wissenschaftler, Simon erhielt 1978 den Nobelpreis.

1976 hatten Newell und Simon einen Beitrag fuer die Association for Computing Machinery verfasst mit dem recht harmlos klingenden Titel "Computerwissenschaft als empirische Forschung: Symbole und Loesungssuche". Eine Uebersetzung dieser denkwuerdigen Abhandlung gibt Dieter Muench, Lehrbeauftragter am Institut fuer Informatik der TU Berlin, in seinem Buch "Kognitionswissenschaft"/1/.

Newell und Simon amuesieren sich in dieser Abhandlung ganz koestlich ueber Platons Wiedererinnerungslehre aus dem Menon-Dialog. Darin lehrt Sokrates einen rechenunkundigen Sklaven Mathematik, indem er ihn quasi mit der eigenen Nase auf die Logik in den Sachen stoesst, - Sokrates spricht von "Wiedererinnern". Wir wuerden sagen: "Es faellt uns wie Schuppen von den Augen."

Die beiden amerikanischen Computer-Gurus hielten die Sokrates- Erklaerung allerdings fuer ziemlich albern. "Das Thema Problemloesung wurde 2000 Jahre von Philosophen und Psychologen (?) diskutiert, haeufig mit einem sehr starken mystischen Einschlag. Wer meint, dass es nichts Problematisches oder Mystisches mit einem problemloesenden Symbolsystem auf sich hat, ist ein geistiges Kind unserer Zeit."

Soweit die Ansicht von Newell und Simon, aber muss sich nicht auch jeder Computer an die Logik seiner Schaltungen und Programme "wiedererinnern", wie sie ihm vom logisch denkenden Menschen eingepflanzt wurden? Inzwischen weiss die Kognitionswissenschaft, dass die Dinge nicht ganz so einfach liegen, wie Newell und Simon sich das gedacht haben. Die Entmystifizierung der Welt ist laengst nicht beendet und gelingt moeglicherweise nie, da immer ein Rest an Unwissen bleibt. Dafuer sorgt schon die beschraenkte Sensorik des Menschen und der Filter in der Wahrnehmung gegen den "memory overflow".

Womit Newell und Simon allerdings recht haben - und da stimmt ihnen die Mehrheit der amerikanischen Philosophen zu: Computer helfen, besser zu verstehen, wie die Welt im Gehirn geistig repraesentiert ist. Diese Repraesentation muss es geben, sonst haetten wir grosse Orientierungsprobleme und liefen bei jeder Gelegenheit gegen einen Tuerpfosten oder sonst etwas.

Diesem Dilemma unterliegt auch der Computer. Wer einer Maschine beibringen will, Dinge wahrzunehmen und logisch zu erfassen, die wir fuer real halten, muss ziemlich gut Bescheid wissen, wie wir wahrnehmen, erkennen, lernen, verstehen, merken, erinnern. Koennen wir das und kann der Computer das, wo liegt dann die Grenze fuer kuenstliche Intelligenz (KI)?

Selbst ein so vehementer KI-Kritiker wie der MIT-Informatiker Joseph Weizenbaum bestreitet eines nicht: "Der Computer verleiht einem diese einzigartige Faehigkeit, die Sachen schaerfer zu sehen, mit besserem Fokus. Wenn jemand ein Problem hat und sich dafuer ein Programm schreibt, dann muss er, um das zu tun, sein Problem verstehen. Und beim Schreiben selbst wird das Problem neu beleuchtet. Er sieht, dass etwas nicht geht, und er erkennt daran, dass er etwas an dem Problem nicht tief genug verstanden hat. Dass man zum Verstaendnis seiner ganz realen Alltagsprobleme kommt, indem man den Computer benutzt, das ist eine sehr schoene Rolle des Computers."

Der franzoesische Philosoph und Descartes-Reminiszent Andre Glucksmann unterstreicht das: "Weil die Techniker die Natur nachahmen, koennen sie erkennen, was sie verbirgt." Nun, die Computertechnik verbirgt ganz Besonderes: Geist in Reinkultur, getrieben von formaler Logik. Aber genau das hat die Philosophie immer beschaeftigt. Der Bogen reicht von Aristoteles bis Hegel, den Scholastikern bis zum Wiener Kreis, der Stoa bis Wittgenstein. Den gemeinsamen Fokus bilden die Syllogismen des Aristoteles: "Alle Menschen sind sterblich - Sokrates ist ein Mensch - also ist Sokrates sterblich." In Boolscher Algebra ausgedrueckt hiesse das: Wenn A gleich B und C gleich A, dann C gleich B. Erstsemester der Philosophie bueffeln das als Praedikatenlogik.

Traurig, dass in Deutschland die Anwendbarkeit der Praedikatenlogik im Computer so wenig verstanden wird; schliesslich war es ein deutscher Brueckenbauer, der den Computer in den 40er Jahren erfand. Aber auch die Nazis verstanden Konrad Zuse nicht. Der Computer machte deshalb mit einigen Jahrzehnten Verspaetung seinen Hoehenflug vom Boden der USA aus. So ist es bis heute geblieben.

Kognitionswissenschaft waechst in der Neuen Welt

Wie sollte es anders sein: Das zarte Pflaenzchen der Kognitionswissenschaft spriesst fast ausschliesslich in der Neuen Welt. Dort war der geistige Boden bereitet. 1938 verfasste der MIT- Mathematiker Claude Shannon eine Dissertation mit dem Titel "Eine Analyse der Symbolik in Relais und Schaltern". Shannons Thesen jubelte der Kognitionspsychologe Howard Gardner in seinem 1985 in englischer und 1989 bei Klett-Cotta in deutscher Sprache erschienenen Buch "Dem Denken auf der Spur"/2/ (The Mind's New Science) zur "wahrscheinlich wichtigsten Examensarbeit unseres Jahrhunderts" hoch.

Shannon wies nach, dass sich die algebraische Wahr-Falsch-Logik von Boole auf das An-Aus-Prinzip elektrischer Schaltkreise uebertragen liess. Damit war das Fundament gelegt fuer Maschinen, die wahrheitsfunktionale Operationen ausfuehren konnten. Auch die Anwendbarkeit von Algorithmen (Beschreibung von Methoden zur Loesung einer Aufgabe in endlicher Zeit) fuer solche Maschinen demonstrierte Shannon. Weitsichtig empfahl er, Computer lieber mit formaler Logik zu fuettern als mit Arithmetik.

Etwa zur selben Zeit formulierte der Englaender Alan Turing seine epochalen Ideen ueber Grundzuege und Gemeinsamkeiten menschlicher und maschineller Intelligenz. Turing ist heute einer der Saeulenheiligen der KI-Philosophie. Die Frage, ob eine Maschine sich intelligent verhaelt, beantwortet diese Fraktion ausschliesslich mit dem Turing-Test. Danach gilt eine Maschine als intelligent, wenn ein skeptisch eingestellter Zeitgenosse ohne Sichtkontakt zum Gegenueber nicht genau erkennen kann, ob er Antworten von einer Maschine oder einem Menschen erhaelt.

Turing konstruierte in Gedanken den Archetypen aller Maschinen, die Algorithmen bearbeiten koennen. Jeder Computer ist von daher eine Turing-Maschine. Moeglicherweise sind auch wir Turing- Maschinen. Einige glauben das, andere nicht.

Wie ging die Historie weiter? Die schon erwaehnten Newell und Simon erhielten zusammen mit Cliff Shaw in den 50er Jahren bei der Rand Corporation Zugriff auf einen Elektronenroehrenrechner. Bald wollten sie beweisen, dass dieser mehr konnte als lediglich Zahlen fressen. Sie programmierten den legendaeren "Logic Theorist". Seine Aufgabe bestand darin, Theoreme der englischen Mathematiker und Philosophen Bertrand Russel und Alfred North Whitehead aus der "Principia Mathematica" (1910-1913) zu beweisen.

Und es klappte: Im August 1956 lieferte der Logic Theorist seinen ersten lueckenlosen Beweis eines Russell-Whitehead-Theorems; weitere 37 folgten. Das Programm, demzuliebe sich Newell und Simon eine hoehere, nicht maschinen-, sondern menschennahe Programmiersprache ausdachten, verwendete beim Schlussfolgern aristotelische Syllogismen.

Ein Minsky-Schueler entwickelte dann Ende der 60er Jahre ein reines Syllogismus-Programm, das von zwei Figuren auf weitere passende Figurenpaare in einem Puzzle schliessen konnte. Das Programm verstand Beschreibungen wie "in", "ueber", "links von", "gedreht". Es machte seine Hausaufgaben auf dem Niveau eines 16jaehrigen Schuelers. Ein anderer Minsky-Juenger schrieb ein Programm, das Dreisatzrechnungen loeste - nicht algebraisch, sondern semantisch.

Ein weiterer Amerikaner, John McCarthy, entwickelte die symbolische Programmiersprache "Lisp". Mit "Prolog" zogen die Europaeer erst Jahrzehnte spaeter nach. Fuer McCarthy bestand Intelligenz aus Axiomen und logischen Schlussfolgerungen. Lisp uebernahm viel von den aristotelischen Syllogismen und manipulierte Listen von Symbolen mittels formaler Logik. Das war verlockend und verfuehrte zum Glauben, Wissen bestehe ueberhaupt nur aus Logik. Dem widerspricht inzwischen selbst Minsky.

Erzvorkommen von KI-Computer aufgespuert

Edward Feigenbaum, Simon-Schueler und heute einer der wichtigsten serioesen Vertreter der kuenstlichen Intelligenz kreierte Anfang der 70er Jahre zusammen mit dem Genetik-Nobelpreistraeger Joshua Lederberg das erste Expertensystem der Welt. Der Computer analysierte damit Daten ueber organische Verbindungen, die er von einem Massenspektrografen erhielt. Das Expertensystem formulierte aus Bergen von Daten Hypothesen ueber Molekularstrukturen und testete sie zugleich.

Expertensysteme haben seitdem ihren Weg gemacht, auch wenn mancher Experte befuerchtet, vom Computer ersetzt zu werden. Die erste kommerziell einsetzbare Lisp-Maschine kam von Texas Instruments. Sie lieferte auf der Stelle eine Sensation: Ein kalifornisches Erzvorkommen, das jahrzehntelang vergeblich gesucht worden war, spuerte der KI-Computer innerhalb von zwei Wochen auf.

Als immer mehr symbolverarbeitende und Praedikatenlogik anwendende Lisp-Maschinen aufkamen, verbluefften wiederum zwei MIT- Computerwissenschaftler die Welt mit raffinierten psychologischen und kognitiven Computerprogrammen: Weizenbaum praesentierte sein Dialog-Programm "Eliza", das einen Therapeuten so taeuschend simulierte, dass Testpersonen ueberzeugt waren, mit einem Menschen zu kommunizieren. Weizenbaum verschlug das die Sprache, hatte er seinem Programm doch nur ein paar Platitueden beigebracht. Seine Sympathie fuer die KI schwand; er kritisiert sie seitdem erbarmungslos. Besonders in Deutschland findet er damit zahlreiche Sympathisanten unter der kritischen Intelligenz.

Nicht ganz so kritisch, aber dennoch verhalten sieht Terry Winograd heute, was er frueher getan hat. Der Semantiker hauchte 1970 einem KI-Roboter namens "Shrdlu" Leben ein. Es war ein begrenzt denkfaehiger Roboter, der sich in einer Baukloetzchenwelt erstaunlich gut zurechtfand. Der Computer verarbeitete dabei natuerliche Sprache. Shrdlu wusste, was geometrisch geht und was nicht. Auch vermochte er Farben zu unterscheiden, eine keineswegs banale Aufgabe. Hinter den Shrdlu-Kulissen arbeiteten mehrere "Spezialisten" in Form interagierender Softwarebausteine, so etwa ein Experte fuer Syntax, ein anderer fuer Semantik und dann noch so etwas wie ein Dramaturg, der Pronomen wie "dieser", "jener" und "der, welcher" deutete.

Die meisten Probleme loeste Shrdlu mittels Deduktion, einem Schlussverfahren der philosophischen Erkenntnistheorie: Quader haben mehrere rechteckige Flaechen, Pyramiden hoechstens eine (allgemein), also wenn mehrere rechteckige Flaechen da sind, duerfte es ein Quader sein (konkret). In Winograds Roboter steckte kompaktes Wissen dieser Art. Shrdlu verblueffte alle Welt und loeste heftige Diskussionen aus, ob das Ding wirklich verstehe, was es tut. Winograd verneint das inzwischen kategorisch. Er hat sich in die Sprachwissenschaft zurueckgezogen. In dem Buch "Erkenntnis Maschinen Verstehen"/3/, das er zusammen mit einem frueheren Minister der Regierung Allende verfasst hat, orakelt Winograd vor seinem Abtauchen ins alte Fachgebiet, dass alle bisherigen Denkansaetze der Informatik wohl nicht genuegten, um tatsaechlich menschengerechte Computer zu bauen. Der Bremer Informatik- Professor Wolfgan Coy schreibt dazu im Nachwort: "Die so lange erfolgreiche Verdraengung philosophischer Grundlagen bricht zusammen."

Ganz im Sinne Winograds und anderer KI-Skeptiker haben die meisten Logik-Softwerker inzwischen kleinlaut zur Bescheidenheit des alten Sokrates zurueckgefunden ("Ich weiss, dass ich nichts weiss"). Das liegt weniger an der nicht enden wollenden Kritik der Anti- Computer-Fundis. Vielmehr erkennt die Kognitionswissenschaft selber, je tiefer sie in die Materie eindringt, wie aeusserst schwierig die Sache mit der Intelligenz ist. Winograds Nachfolger befassen sich lieber mit dem Lernvermoegen von Kleinkindern statt mit dem Wissen ausgewachsener Experten. Manche sind sogar in die Insektenforschung eingestiegen.

"Die Regel lehrt", sagt Descartes, "dass wir uns nicht sofort mit schwierigen und muehevollen Gegenstaenden beschaeftigen duerfen, sondern zuerst gerade ganz unbedeutende und hoechst simple Verfahrensweisen in Erwaegung ziehen sollten, vor allem solche, in denen eine Ordnung herrscht." Die Kognitionswissenschaftler haben die Lektion des franzoesischen Aufklaerers begriffen, den sie neben Kant als ihren geistigen Urvater betrachten.

Descartes interessiert deshalb, weil er gedanklich das Cogito vom Koerper trennte und ihm dadurch Autonomie verlieh. Somit kann Denkvermoegen auch in einer Maschine oder sonstwie synthetisiert werden. Kant wird geschaetzt wegen seiner Idee, dass der Geist, der keinen direkten Zugriff auf die Wirklichkeit hat, sich diesen in Form einer symbolischen Repraesentation der Welt im Bewusstsein schafft. Das spornt zur Suche nach Computerprogrammen an, die Gleiches vermoegen.

Weitere wichtige Beitraege auf dem Weg zu einer Philosophie des Computerzeitalters liefert vor allem die Sprachwissenschaft (Linguistik). Der Nachweis enger Verbindungen zwischen sprachlicher Grammatik und formaler Logik fuehrte zur (Wieder)Entdeckung der Syntaxregeln in argumentativen Aussagen. Diesmal ging es jedoch weit ueber Aristoteles hinaus. Ende der 50er Jahre ruettelte der Linguistiker Noam Chomsky mit seiner Beschreibung syntaktischer Strukturen an den Grundueberzeugungen der Geisteswissenschaft. Er vertrat die Meinung, dass alle Bereiche des Geistes - darunter auch die Sprache - nach Regeln oder Prinzipien arbeiten, die aufgedeckt und formalisiert werden koennen.

Die Simulation von Denkprozessen akzeptiert

Chomsky zufolge lassen sich Denkprozesse am besten anhand der Sprache erforschen. Philosophen wie Karl Popper sehen in der Sprache ueberhaupt die Quelle aller objektiven Erkenntnis. Und Chomskys Syntax erlaubt es, Algorithmen computergerecht niederzuschreiben. Der Computer versteht Syntax, trifft damit Aussagen und zieht Schluesse. Dass er die Semantik begreift, muss bezweifelt werden.

Der kalifornische Sprachphilosoph John Searle ist so ein Zweifler. Er kritisiert schonungslos die KI in ihrer harten Form. Searle akzeptiert aber logische Simulation von Denkprozessen auf Computern, um mehr ueber den menschlichen Geist zu erfahren. Er spricht dennoch Computer fuer alle Zeiten von semantischem Wissen frei.

Die Argumentation demonstrierte er am Beispiel seines beruehmten "Chinesischen Zimmers". Searle sitzt in einem geschlossenen Raum und bekommt chinesisch beschriftete Dokumente hineingereicht. Er versteht nur Englisch, kein Chinesisch. Um zurechtzukommen, erhaelt er ein englisches Handbuch mit Regeln, wie chinesische Zeichen englischen zugeordnet werden. Searle lernt also nichts anderes, als Mengen formaler Symbole der einen Art Symbolmengen einer anderen Art zuzuordnen. Fuer Aussenstehende erweckt er den Eindruck, Chinesisch zu koennen. In Wirklichkeit habe er jedoch keinen blassen Schimmer davon.

Searles Vorstellung reduziert den Computer auf einen Manipulator von Listen mit Symbolen, die nur dem Menschen etwas sagen. Die Maschine versteht dagegen rein gar nichts, denn ihr bleibt die Bedeutung der Zeichen verborgen. Kein noch so intelligentes Handeln des Computers oder eines Roboters koenne darueber hinwegtaeuschen. Searle waere aber zu fragen: Welcher Industriearbeiter oder Bueroangestellte begreift schon die wahren Hintergruende seines Tuns? Funktionieren wir nicht alle wie intelligente Roboter innerhalb eines weitgehend unverstandenen Wirtschafts-, Gesellschafts- und Naturgefueges?

Die britische KI-Philosophin Margaret Boden von der University of Sussex legt ihren Finger genau in diese Wunde und widerspricht Searle ganz entschieden. Sie meint vielmehr, es gebe schon Computerprogramme, "die Dinge tun - oder auf jeden Fall damit anfangen -, die schlecht informierte Kritiker a priori als unmoeglich bezeichnet haben. Dazu gehoert: holistisch statt atomistisch wahrnehmen; Sprache kreativ gebrauchen; mit Hilfe einer sprachneutralen semantischen Repraesentation sinnvoll von einer Sprache in eine andere uebersetzen; Handlungen grob skizziert planen und ueber Details erst waehrend der Durchfuehrung entscheiden; je nach dem psychologischen Kontext des Betroffenen unterschiedliche emotionale Reaktionen erkennen."

Wie dem auch sei: Die Erforschung der menschlichen Intelligenz, ihrer Faehigkeit zu logischem Denken und zum differenzierten, staendig sich erweiternden sprachlichen Ausdruck tritt mit der Kognitionswissenschaft in ein neues Stadium. Der Computer dient als Modell geistiger Arbeit und als Labor, das Denken zu analysieren. Theorien, ueber die bisher nur gelehrt spekuliert wurde, koennen nun erstmals ohne groessere Gefahr fuer Geist und Leben des Individuums und der ganzen Gesellschaft getestet werden. Philosophie und Computer werden zum Team.

Viele Philosophen moegen das als Blasphemie ansehen. Dabei sollten sie bedenken, dass die geistige Adaption moderner Technik durch eine Kultur von hoechster Wichtigkeit ist, erst recht, wenn es sich um eine Technik handelt, die das Gehirn nachahmt. Eine Philosophie, die den Computer ignoriert, ist auf dem Weg ins Fass des Diogenes. Die Informatiker unter den Kognitionswissenschaftlern wissen: Ohne Philosophie, ohne bessere Kenntnis des menschlichen Lernens, Denkens und Verstehens wird es keine intelligenteren und leistungsfaehigeren Computer geben.

Wichtige Teile der Alltagswelt und der Wirtschaft durch Computer steuern zu lassen setzt voraus, dass die Programmierer ueber aussagekraeftige Theorien von der Welt und der menschlichen Gesellschaft verfuegen. Dazu ist es erforderlich, den Schatz des philosophischen Wissens zu heben, selbst wenn dabei nur herauskommen sollte, dass die Grenzen des Computers eng gezogen sind.

Der Philosoph Hans-Georg Gadamer hat diese Grenzlinien messerscharf gezogen: "Was wir verstehen, gruendet sich auf das, was wir bereits wissen, und was wir bereits wissen, verdanken wir unserer Faehigkeit zu verstehen." Wenn wir dennoch gelegentlich geistige Fortschritte machen, dann nur, weil wir hier und da Vorurteile ueberwinden "und uns dadurch selbst von etlichen Grenzen, die sie unserem Denken setzen, emanzipieren".