München, 14. 4. –18. 4. 2004

 

Lieber Karl-Heinz,

zu Beginn möchte ich Dir gern ein wenig vorspielen.

Vorspiel

Gehen wir mal davon aus, da sei ein Kenom.

Und außerdem sei da noch ein Kenom.

Ich hätte hier auch nochmal das Quadrat hernehmen können, das spielt keine Rolle. Die beiden Kenome sind nicht verbunden, und deshalb ist nach den Regeln der Kenotik die Frage nach ihrer Gleichheit oder Verschiedenheit nicht zulässig.

Nun wollen wir die beiden Kenome konkatenieren, d.h. zu einem Paar von Kenomen verbinden. Bei diesem Vorgang entsteht die Frage nach ihrer Gleichheit oder Verschiedenheit. Wir müssen diese Frage also, während wir die Konkatenation ausführen, entscheiden. Es gibt somit zwei mögliche Ergebnisse der Konkatenation:

oder

In der klassischen Semiotik ist das Ergebnis einer Konkatenation stets eindeutig. Die Frage, ob zwei Zeichenatome gleich oder verschieden sind, ist immer schon vorab entschieden, das Konkatenieren ändert daran nichts. Die kenotische Kon­ka­te­na­tion hingegen ist ein Vorgang, der eine Entscheidung in sich trägt, und der somit eine In­for­ma­tion erzeugt. Ein klassisches Atom trägt ²log(n) Bits an Information (n = Mächtigkeit des Alphabets), ein Paar von Atomen genau das Doppelte. Ein einzelnes Kenom trägt 0 Bits an Information, ein Paar von Kenomen trägt 1 Bit an Information. In der Kenotik ist somit das holistische Prinzip ein Faktum, keine Forderung.

Nach meinem Geschmack ist das Beste an den Kenomen, dass sie mangels Typidentität keine Bedeutungen tragen können. Man kann sie nicht dazu benutzen, um mit ihnen etwas zu bezeichnen.

Postmechanische Welten

Zu 2.4 fällt mir ein, dass ich seinerzeit auf anderen Wegen zu der Forderung gekommen bin, ökonometrische Prognostiker sollten ihr Geld durch das Abschließen von Wetten verdienen. In einer mathematischen Vorlesung über Wahrscheinlichkeitstheorie hatte ich nämlich gelernt, dass die Axiome der Wahrscheinlichkeitstheorie auf genau zwei Arten begründet werden können: durch Aussagen über relative Häufigkeiten, oder durch Aussagen über Wettsysteme. Somit kann der Wahrscheinlichkeitsbegriff auf genau zwei Arten semantisch belegt werden, eine objektive und eine subjektive. In der Ökonometrie handelt es sich nicht um beliebig wiederholbare Experimente, weshalb hier die relativen Häufigkeiten nicht zur semantischen Belegung des Wahrscheinlichkeitsbegriffs herangezogen werden können. Bleibt also nur die subjektive Interpretation. Die einzig mögliche Antwort auf die Frage „was bedeutet es, dass die Wahrscheinlichkeit für jenes Ereignis kleiner als 5% ist“ lautet daher: derjenige, der das behauptet, ist bereit, Wetten auf das Eintreten des Gegenteils mit einem bestimmten Wettquotienten einzugehen (die Details müsste ich nachlesen). Sind die Prognostiker zu solchen Wetten nicht bereit, so haben ihre Wahrscheinlichkeitsaussagen einfach keinen Inhalt.

Nun zu TrE. Mich hat früher daran immer die implizite Annahme gestört, die darin vorgenommene Weltbeschreibung sei die einzig mögliche oder einzig sinnvolle oder einzig relevante. Ist es denn so, dass verschiedene Forschungsinstitute alle das selbe Modell für ihre Erklärungen und Prognosen hernehmen? Doch eher nicht. Wie schafft es dann unser Theoretiker, dass die Akteure just seine Erklärung überhaupt zur Kenntnis nehmen, ernst nehmen, für wahr halten? Wie läuft der Vorgang der Informationsbeschaffung durch die Akteure ab? Welche Kriterien haben sie zur Bewertung alternativer Erklärungen oder Forschungsinstitute oder Theoretiker? Derartige Fragen würden sich stellen, nähme man die Akteure als denkende und handelnde Subjekte ernst, oder auch nur sich selbst als Dienstleister.

Aber nun ein wenig immanenter gedacht. Die Paradoxien in postmechanischen Welten, die Du beschreibst, sind den bekannten semantischen Paradoxien eng verwandt, die ja ebenfalls dann auftreten, wenn man Objekt- und Metaebene nicht sauber getrennt hält. Da die Objektebene jetzt auch Subjekte und Zeitbezüge enthält, werden die möglichen Paradoxien bunter und vielfältiger. Paradoxien können übrigens auch bei intakter modaler Trennung von Meta- und Objektebene auftreten, wenn man die Wirtschaftssubjekte als Subjekte ernst nimmt in dem Sinn, dass sie Theorien entwickeln und verwenden (Diss Matzka 1982). Sie fangen dann an, Theorien über einander zu bilden, und verheddern sich dabei in den hübschesten infiniten Regressen.

Jede Durchlässigkeit der Grenze zwischen einem Subjekt und seinem Objekbereich macht ein System inoperabel, weil sie zirkuläre Referenzen und dadurch widersprüchliche Aussagen ermöglicht. Nich jedes zirkuläre Konstrukt führt dabei zu Widersprüchen. Die Menge aller Mengen, die sich nicht selbst als Element enthalten, ist ein zirkuläres Konstrukt, das zu einer widersprüchlichen Aussage führt. Die Menge aller Mengen, die sich selbst als Element enthalten, ist auch ein zirkuläres Konstrukt, führt aber nicht zu einem Widerspruch. Allein die Existenz der Letzteren wäre für das System nicht katastrophal. TrE sehe ich ähnlich: Auch sie ist ein zirkuläres Konstrukt, führt aber nicht unbedingt zu Widersprüchen. Deshalb konnte sie so lange toleriert werden. Man muss schon, wie Russell oder Brodbeck, die Widersprüche suchen, sonst kann man sie leicht übersehen.

Die Russell’sche Typenlehre war eine mögliche Strategie, die prädikatenlogischen Paradoxien zu vermeiden. Man hat spätere elegantere Strategien gefunden, z.B. die typenfreie Mengenlehre ZF. Wahrscheinlich könnte man die Russell’sche Strategie aufs Neue anwenden, könnte Verbotsschilder für die Referenzierungsrichtungen in postmechanische Welten aufstellen, und so ein Klasse postmechanischer Welten definieren, die vor zirkulären Referenzen sicher ist. Aber damit hätte man vermutlich die Intention verfehlt, die zur Idee der postmechanischen Welten geführt hat. TrE lässt sich auf diese Weise sicher nicht retten, da sie ja tatsächlich auf einer zirkulären Referenzierung beruht.

Ich erlaube mir, an dieser Stelle eine Passage aus meinem Brief vom 26. 2. 04 zu wiederholen.

Die erstaunliche Konseqenz dieser Sinnanalyse ist nun, dass das Denken, so lange es sich im Rahmen dieser Logik bewegt, keine anderen Freiheitsgrade zur Verfügung hat, als die einfache Reflexionsdistanz des Subjekts von seinem Objekt. Weder eine Reflexion auf das Ich, noch die Vorstellung einer Ich-Du-Relation, noch irgend eine andere Art von Subjektivität (außer eben derjenigen, die sich dem Objekt direkt gegenübersieht) hat innerhalb dieser Logik Platz. Innerhalb dieser Logik bleibt jegliche Subjektivität auf die Subjekt-Seite der Subjekt-Objekt-Opposition beschränkt, und auf der Objekt-Seite kann keine Spur von Subjektivität vorkommen.

Von den Reizwörtern und kategorialen Vermischungen mal abgesehen: das ist der Punkt. Der abendländischen Wissenschaft liegt eine Logik zugrunde, und dieser Logik liegt eine Grammatik des Redens über Entitäten sowie deren Eigenschaften und Relationen und Funktionen zugrunde. In diesem Setting hat nur ein einziges Subjekt Platz, und dieses befindet sich hinter der Kamera. Vor der Kamera muss alles flach, objektiv, frei von Reflexivität und Subjektivität bleiben. So bald Subjekte vor der Kamera auftauchen, müssen sie unmittelbar ihrer Subjektivität beraubt und in Funktionen oder ähnliches umgewandelt werden, sonst gibt es logischen Ärger. Postmechanische Welten sind in diesem Setting nicht denkbar.

3. Der vergessene Avatar

Als erstes fällt mir dazu eine Beobachtung aus alten Zeiten ein. Ist Dir schon mal aufgefallen, dass der dreidimensionale euklidische Raum, der ja die Bühne ist, auf der die klassische Physik sich abspielt, einen Usrpung hat, einen Nullpunkt, einen strukturell ausgezeichneten Punkt, in dem die drei Koordinatenachsen sich schneiden? Frage einen Physiker nach der Bedeutung des Koordinatenursprungs, und er wird Dir sagen, dass er überhaupt keine Bedeutung hat, denn es gibt ja Transformationsoperatoren, mit denen sich jede räumliche Konfiguration aus einem Koordinatensystem in ein beliebiges anderes Koordinatensystem umrechnen lässt. Und dann wird er vielleicht noch etwas über Isotropie sagen, was ja gerade bedeutet, dass der Raum keine ausgezeichneten Punkte hat. Ist das nicht seltsam? Es gibt den Ursprungspunkt, nicht in der Wirklichkeit, aber im Modell, er spielt keine Rolle, und doch man muss Operatoren einführen, um ihm jede mögliche Rolle zu nehmen. Ist vielleicht der Ursprung des Koordinatensystems so etwas was Du meinst, ein vergessener Avatar in Verkleidung? Irgendwie schon, denn der Sinn des Koordinatenkreuzes liegt im Vorgang des Messens und Vergleichens von Abständen und Winkeln, und dies ist ursprünglich ein körperliches Tun. Der menschliche Körper ist somit der natürliche Ursprung des eu­kli­di­schen Koordinatensystems. Erst nachträglich wird es notwendig, vom Körper des Physikers zu abstrahieren. Der Ursprung, der Avatar, lässt sich so aber nicht ausradieren.

Ich glaube also schon, dass man solche Spuren finden kann, und womöglich sind sie ganz offensichtlich, wie in diesem Beispiel aus der Geometrie. Aber das würde ich gern genauer und vielleicht auch langsamer untersuchen. Ich denke auch, dass die Logik ein guter Punkt zum Anfangen ist, oder eigentlich die Grammatik, die ja der Logik vorausgeht. Ich arbeite deshalb so gern am Prädikatenkalkül, weil seine Sprache eine Karikatur der Umgangssprache ist, in der die Funktion des Redens über Entitäten klar herausgearbeitet ist und alle anderen Funktionen der Umgangssprache konsequent unterdrückt sind. Er weist also gerade diejenige Funktion der Umgangssprache, die es zu kritisieren gilt, in reiner Form auf.

Hinsichtlich dessen, was Du über Logik und Metamathematik sagst, kann ich Dir allerdings nicht ganz folgen. Insbesondere teile ich Deine Bewertung des Gödel’schen Beweises für den Unvollständigkeitssatz nicht. Das ging mit schon bei der Lektüre des entsprechenden Kapitels im ZdW so. Ich glaube es ist für den Fortgang unseres Diskurses vorrangig, diese Meinungsverschiedenheit auszudiskutieren.

Der Beweis des Unvollständigkeitssatzes beruht auf einer Denkstruktur, die einen Aspekt von Zirkularität aufweist, dabei aber gerade das Paradoxale konsequent vermeidet. Wenn man aus der Zahlentheorie „herausgeht“ und auf einen in der Sprache des Peano-Kalküls niedergechriebenen Beweis reflektiert, so hat man eine tote Zeichenstruktur vor sich, das ist richtig. Aber was notierte man da, als man den Beweis aufschrieb? Man notierte eine Abfolge von Gedanken, und man notierte sie in der Form von Regelanwendungen. Eine Regelanwendung kann man auch lesen, und kann sie als Instruktion verwenden, den der Regel entsprechenden Gedanken zu denken. Der ursprüngliche Gedanke, den man hatte, als man den Beweisschritt aufschrieb, ist für immer vergangen, richtig, aber man (oder jemand anders) kann den „gleichen“ Gedanken später wieder denken. Es geht in der Mathematik nicht um den einmaligen lebendigen Gedanken, den man da gedacht hat, sondern darum, dass man einen Denkweg gefunden hat, der immer wieder von einem bestimmten Anfang zu einem bestimmten Ende führt. Die Niederschrift des Beweises ist für den Geübten wie eine Landkarte, die ihn befähigt, diesen Denkweg zu finden und sich auf diese Weise davon zu überzeugen, dass der Beweis stimmt. Es ist eine Erfahrung, die allen Mathematikern gemeinsam ist, dass dieses Verfahren zuverlässig funktioniert. Das Wissen um diese Erfahrung gehört zu den Voraussetzungen des Beweises für den Unvollständigkeitssatz.

Die Gödelzahlen sind nichts anderes als ein Übersetzungsprogramm zwischen zwei Formalsprachen: der Sprache Z, in der man über natürliche Zahlen spricht, und der Sprache K, in der man über niedergeschriebene Aussagen und Beweise des Peano-Kalküls spricht. Das Schlüsselobjekt im Unvollständigkeitsbeweis ist eine zahlentheoretische Aussage A (mit ihrer kalkültheoretischen Entsprechung A’), die Gödel unter heftiger Ausnutzung des Übersetzungsprogramms so konstruieren konnte, dass folgendes gilt:

·          Wenn in Z A beweisbar ist, so ist in K A’ falsch

·          Wenn in Z ~A beweisbar ist, so ist in K A’ wahr

Nun die Schlusssequenz des Beweises: Wäre in Z A beweisbar, so wäre in K A’ falsch, und da das Übersetzungsprogramm fehlerfrei funktioniert, wäre dann in Z A falsch. Man hätte eine falsche Aussage bewiesen. Wäre in Z ~A beweisbar, so folgt auf ähnliche Weise, dass ~A falsch ist, man hätte wieder eine falsche Aussage bewiesen. Beides kann nicht der Fall sein, somit ist in Z weder A noch ~A beweisbar. Keine Paradoxie, kein Widerspruch, keine kategoriale Verwechslung von Zeichen und Bezeichnetem, sondern eine sehr interessante Einsicht in die Grenzen der möglichen Denkwege, die die Regeln des Peano-Kalküls zulassen.

Es gehört zu den normalen Funktionen unserer Sprache (insbesondere der Prädikatensprache), Prozesse zu Entitäten zu reifizieren, und das ist eine der Existenzgrundlagen der relativen Wahrheit. Wollen wir das, immer wenn es vorkommt, „Fehler“ nennen? Ich frage das, weil mir nicht so ganz klar ist, wie Du das Wort „Fehler“ gebrauchst. Aber egal ob wir es Fehler nennen, ich finde es sehr lohnend, entlang der formalen Strukturen der Logik eben dieses zu untersuchen, welche Handlungen oder Prozesse da wie reifiziert sind und welche strukturellen Konsequenzen das hat.

Wenn ich auf eine Entität zeige, und dann ein Zeichen nehme, um statt meiner auf die Entität zu zeigen, so kann das Zeichen diese Aufgabe natürlich nicht übernehmen. Es kann nicht zeigen. Es kann nur als Merker dienen, als Instruktion, später wieder die „gleiche“ Tätigkeit des zeigens aufzunehmen. Darin liegt kein Fehler, so lange mir bewusst ist, dass damit eine Arbeit (und eine Verantwortung) verbunden ist, die bezeichnete Entität am Bleiben zu halten und für seine, ggf. intersubjektive, Wiedererkennbarkeit Sorge zu tragen. Und vielleicht noch, dass ich mit derartigen Jobs auch mich selbst am Bleiben halte. Zum Fehler wird es, wenn ich das alles vergesse und in den Glauben verfalle, die Entität (und ich) würde von sich aus bleiben oder würde sich von sich aus zum Wiedererkennen anbieten. So funktioniert, nach meinem Verständnis, die Täuschung.

4. Zeichen und Magie

In gewissem Sinn war meine alte Subjektive Mengenlehre auch so ein Versuch. Der Fehler war, die Identität des Subjekts nicht als Täuschung zu erkennen. Die Täuschung der Entitäten findet in der Sprache statt, und das Meta führt aus der Sprache nicht hinaus. Deshalb bin ich gegenüber metasprachlichen Rekonstruktionen eher skeptisch. Ich frage eher so: wie finden wir zu einem Denken, das nicht der Täuschung der Entitäten unterliegt? Wie finden wir Formen der Kommunikation, die unsere Handlungen koordinieren, ohne deswegen gleich jeden Windhauch und jede Ahnung zur Entität machen zu müssen? Vielleicht gar nicht, so lange wir uns ausschließlich einer Grammatik des Redens über Entitäten bedienen, wie sie in unsere Sprache (und ganz besonders in die Prädikatensprache) eingebaut ist. Vielleicht gar nicht, so lange wir uns ausschließlich einer Semiotik bedienen, in der die Zeichen durch die Bindung an ein Alphabet selbst zu Entitäten geworden sind.

Was die Ahnungen angeht, kannst Du aus der Reihe der in (3.9) aufgezählten Autoren getrost alle außer Günther streichen. Wie das mit dem Erzeugen von physikalischen Teilchen genau funktioniert, weiß ich auch nicht, würde es aber gerne wissen. Eine ähnliche Frage wie Du sie im Schlussabsatz formulierst, hatte ich wohl im Sinn, als ich in meinem Einführungstext, im Zusammenhang mit Whitehead, schrieb:

Die spannende Frage heißt doch: was bedeuten die in den physikalischen Theorien geronnenen Erfahrungen, wenn man sie im Licht der neuen Metaphysik betrachtet? Können wir, wenn wir so fragen, vielleicht mehr aus den Gleichungen der Physik lernen, als ursprünglich mit ihnen gemeint war? Als Physiker stehen wir der Natur gegenüber, als Whiteheadianer sind wir die Natur. Als Physiker betrachten wir die Natur von außen, als Whiteheadianer betrachten wir sie von innen. Man kann also auf die Idee kommen zu fragen, was eine bestimmte physikalische Aussage bedeutet, wenn man sie nicht aus der Sicht des Physikers, sondern aus der Sicht der Natur interpretiert.

Bis bald

Dein Rudi