E-Mail Matzka an D, 23. 07. 2010

Betr.: Dialog über Physik

es macht mich sehr froh, dass wir uns getroffen und kennengelernt haben. Seit einigen Jahren suche ich vergebens nach einem philosophisch reflektierten Physiker, der sich für einen Dialog interessieren lässt, mit dem Ziel, buddhistische Denkfiguren an der Physik zu erproben. Das scheint mir vielversprechend zu sein, weil in der gewaltigen Differenz zwischen der physikalischen Denkwelt, die im Identitsprinzip gegründet ist, und der buddhistischen Denkwelt, die in der Negation des Identitätsprinzips gegründet ist, ein kreatives Potenzial liegen muss, das man erschließen kann, wenn es nur gelingt, die buddhistischen Denkfiguren so weit zu übersetzen und zu präzisieren, dass sie mit abendländischen Denkfiguren in einen direkten Zusammenhang gebracht werden können, ohne ihren Kerngehalt zu verlieren. An Letzterem habe ich viele Jahre gearbeitet, aber mit der Anwendung in der Physik komme ich allein nur sehr langsam weiter, weil ich zu wenig von Physik verstehe. Die vier Semester bis zum Vordiplom, die ich in Frankfurt Physik studiert habe, reichen da einfach nicht.

Im vergangenen Jahr habe ich auf der RSNG-Tagung in Stuttgart in einem 15-Minuten-Referat mein Projekt einer buddhistisch informierten Philosophie der Physik vorgestellt, wodurch ich gezwungen war, meine Ideen in sehr knapper und allgemeinverständlicher Weise aufzuschreiben. Das vierseitige Script dieses Referats steht unter www.rudolf-matzka.de/dharma/presentation.pdf zum Download bereit, und es würde mich sehr freuen, wenn Sie Gelegenheit fänden, einen Blick hinein zu werfen

E-Mail Matzka an D, 7. 9. 2010

Betr.: Unser Gespräch vom Montag, dem 6. September

im Nachgang zu unserem gestrigen Gespräch, das ich übrigens sehr genossen habe, will ich eine Art Gedächtnisprotokoll anfertigen und dabei kleine nachträgliche Kommentare hinzufügen.

1. Physik und Buddhismus. Ich zitiere aus Ihrer Naturphilosophie: "Das Heraustrennen einzelner Dinge oder Objekte aus der Gesamtheit der Wirklichkeit ist eine Idealisierung, die nie genau stimmt; denn in Wirklichkeit hängt alles mit allem zusammen." Da würde der Buddhist zustimmen, nur richtet er seine Aufmerksamkeit genau auf das, was die Physik vernachlässigt, nämlich auf die Differenz zwischen Idealisierung und Wirklichkeit, und auf den Vorgang des Heraustrennens. Dieser Vorgang des Heraustrennens geschieht ja nicht nur in der Physik, sondern er durchzieht unser ganzes Leben. In jedem Moment tauchen irgendwelche Inhalte in unserem Bewusstsein auf (Wahrnehmungen, Gedanken, Gefühle, Bilder, Stimmungen), und jedes mal haben wir die Wahl, diesen Inhalt zu ergreifen oder ihn loszulassen, wobei wir normalerweise so konditioniert sind, dass das Ergreifen reflexartig geschieht. Wenn wir einen Inhalt ergreifen, dann geschieht genau dieses Heraustrennen eines Objekts aus der Wirklichkeit. Dabei trennen wir das Objekt immer auch aus seinem Zusammehang mit uns heraus. Das heißt umgekehrt, dass wir auch uns aus dem Zusammenhag mit dem Objekt heraustrennen, und damit leisten wir einen kleinen Beitrag zur Konstruktion des Ich. Es ist die Summe dieser Abtrennungen von Objekten, die unser Ich hervorbringt und immer wieder bestätigt.

Buddha hat in der Unbewusstheit dieser permanenten Ichkonstruktion (und in den Emotionen, die nötig sind, um dieses Tabu zu schützen) die Quelle des Leidens gesehen und hat die Praxis der Meditation als Abhilfe dafür empfohlen. In der Meditation lernt der Buddhist (unter anderem), seinen Denkapparat ein- und auszuschalten, und ein guter Buddhist schaltet ihn nicht ein, außer wenn es nötig wird, weil er weiß, dass die Aktivität des Denkens und des damit verbundenen Heraustrennens von Objekten auch negative Nebenwirkungen hat.

Das Abendland weiß nichts von diesen Nebenwirkungen, es geht völlig unbedarft mit den heraustrennenden Aktivitäten um und forciert sie, nicht nur individuell sondern auch kulturell, mit dem Ergebnis, dass so etwas wie ein kulturelles Ich entstanden ist, das sich in einen dichotomen Gegensatz zur Natur gesetzt hat. Der letzte Satz ist meine ganz persönliche Sichtweise, aber wenn sie stimmt, dann könnte die Reflexion auf die blinden Flecken der Physik durchaus große kulturelle Relevanz haben.

2. Transzendentale Rekonstruktion der abstrakten Quantenphysik: Mein Interesse daran speist sich aus der Hoffnung, Quantenphysik intuitiv zu verstehen. Es gibt einen Punkt, den ich intuitiv nicht verstehe, und das ist das Phänomen der Interferenz. Strukturell liegt dahinter die Pluralität der Alternativen zu einem Objekt. Folgt diese Pluralität schon aus dem Postulat des Indeterminismus?

3. Quantenphysik und klassische Physik: Wenn man Physik nicht ontisch interpretiert, dann ist sie nicht eine Theorie der Natur, sondern die Theorie einer bestimmten Organisationsweise des Subjekt-Objekt-Verhältnisses (jener Organisationsweise, die auf empirisch überprüfbare Voraussagen abzielt). Ich verstehe den Begriff "Kinematik" als "Organisationsweise des Subjekt-Objekt-Verhältnisses", und da die Quantenphysik auf einer anderen Kinematik beruht als die klassische Physik, liegen hier zwei verschiedene Organisationsweisen des Subjekt-Objekt-Verhältnisses vor, also wäre es ganz natürlich, dass wir auch zwei Physiken haben. Warum glauben die meisten Physiker so felsenfest an die Möglichkeit der Vereinheitlichung? Ist dieser Glaube nicht ein Reflex, der sich letztlich aus der ontischen Interpretation speist?

Man kann eine Verbindung zur Polykontexturalitätstheorie herstellen, indem man sagt, da sind zwei logische Orte oder zwei Kontexturen, an jedem dieser Orte operiert die klassische Logik, auf unterschiedliche Weise, aber der Zusammehang zwischen diesen Kontexturen kann nicht logisch bestimmt werden. Dazu wären gesissermaßen sub-logische Methoden nötig. Damit wäre immerhin einsichtig, warum die Versuche der mathematischen Vereinheitlichung systematisch auf harte logisch-mathematische Probleme stoßen.

Eine andere Idee ist, die faktische Zusammenführung von relativistischer Physik und Quantenphysik in der QFT begrifflich zu analysieren, wobei man die "ultra-intuitionistische" (Yessenin-Volpin) Idee einer finiten Zahlenreihe zugrunde legen könnte (was natürlich nur funktioniert, wenn man erst mal sehr nachlässig mit der Logik umgeht). Dann sollten gewissermaßen der argumentative Raum der QFT in diverse Regionen zerfallen, die klassisch durch Grenzübergänge verbunden sind, ultra-intuitionistisch hingegen logisch getrennt bleiben müssen. Ich weiß nicht, ob so etwas je versucht wurde, aber es scheint mir einen Versuch wert zu sein.

E-Mail Matzka an D, 27. 09. 2010

Betr.: Unser Gespräch am 27. September 2010

hier wieder eine schriftliche Reprise zu unserem zweiten Montagsgespräch. Ich empfinde es als ein großes Glück, Sie als Gesprächspartner gewonnen zu haben.

Durch das Studium der buddhistischen Philosophie und der Polykontexturalitätstheorie glaube ich, eine Sichtweise in die Philosophie der Physik einbringen zu können, die sich vom bisherigen Diskurs abhebt. Gemeinsam ist der buddhistischen Philosophie und der Polykontexturalitätstheorie die Kritik des Identitätsprinzips. Das Identitätsprinzip hat zwei Aspekte: 1. die Subjekt-Objekt-Relation und 2. die Identität der Phänomene im Objektbereich. Man kann eine starke und eine schwache Formulierung des Identitätsprinzips unterscheiden. Die starke Form lautet: Wir nehmen an, dass die Subjekt-Objekt-Relation gegeben ist und dass die Identität der Phänome gegeben ist. Die schwache Form lautet: wir sehen ein, dass sowohl die Subjekt-Objekt-Relation als auch die Identität der Phänomene nicht gegeben sind, sondern dass es sich dabei um mentale (oder kulturelle) Konstruktionen handelt, aber wenn wir praktisch mit den Phänomenen umgehen wollen, können wir nicht anders, wir müssen sie als identische behandeln, einfach weil unser sprachgebundenes Denken nur ein Denken in Identitäten erlaubt. (Zur Erinnerung: ein Phänomen nenne ich identisch, wenn es die Merkmale der Einheit, Unterschiedenheit und Dauer aufweist. Alle schriftsprachlichen Konstrukte sind identisch, sie beziehen ihre Identität aus der Identität der Buchstaben.) Reflektierte moderne Philosoophen würden wohl im allgemeinen die schwache Variante bevorzugen, und wenn ich recht verstehe, ist das auch Ihre Position.

Diese Einsicht hilft aber nicht weiter, so erinnere ich mich von Ihnen gehört zu haben, weil wir ja nichts anderes haben als unsere Sprache und unsere Mathematik. In der Tat ist die Einsicht in die Konstruiertheit der Identitäten nur dann von Interesse, wenn wir es für möglich halten, dass wir die Zwecke, die wir mit unserem Tun verfolgen, auch auf andere Weisen erreichen könnten, als wir es bisher gewohnt sind, vielleicht indem wir alternative Wege finden, Identitäten zu konstruieren, oder indem wir lernen, mit Entitäten umzugehen, die nicht alle Identitätsmerkmale zugleich aufweisen, indem wir also lernen, das Identitätsprinzip partiell zu unterlaufen. Natürlich ist nicht zu erwarten, dass wir auf Anhieb sagen könnten, was das für alternative Wege sind, denn um solche alternativen Wege zu finden, müssen wir zuerst genau verstehen, wie der Standardprozess der Identitätserzeugung abläuft, so dass wir vielleicht Stellen finden, an denen andere Prozessverzweigungen möglich sind, so dass wir Non-Standard-Prozesse finden, die zu Non-Standard-Konstrukten führen. Wir können also die Alternativen zur klassischen Logik nicht von vornherein angeben, aber wenn wir nicht von vornherein die Möglichkeit solcher Alternativen einräumen, ist das Studium des Standardprozesses ziemlich uninteressant.

Nun heißt die nächste Frage: wie können wir Prozesse der Identitätsentstehung untersuchen, da wir doch auch bei dieser Untersuchung an unsere Sprache und damit an das (schwache) Identitätsprinzip gebunden sind? Die Antwort ist, dass wir ja nicht nur über ein einziges Begriffsschema verfügen, sondern über eine Vielzahl von Begriffsschemata. Nur so lange ich mich in einem einzigen Begriffsschema bewege, muss ich dessen Identitäts-Setzungen respektieren; ich kann aber auch dieses Begriffsschema verlassen und ein anderes Begriffsschema finden oder erfinden, von dem aus das erstere Begriffsschema sich auf seine Identitäts-Setzungen hin untersuchen lässt. So kann ich zum Beispiel in der Sprache der Philosophie über Physik sprechen, ohne mich den physikalischen Identitäts-Setzungen zu unterwerfen.

"Was Sie Identitäts-Setzungen genannt haben, nenne ich Objektivierungen", höre ich Sie sagen, und da haben wir keine großen Spielräume. Wenn wir wirklich objektivierende Wissenschaft betreiben wollen, enden wir bei der Physik (und bei der Atombombe, wie Weizsäcker wohl etwas sarkastisch hinzugefügt hat). Dem hielt ich entgegen, dass es neben der Physik ja durchaus andere Wissenschaften gibt, z.B. die Ökonomik oder die Informatik, in denen ebenfalls Objektivierungen am Werk sind, die durchaus praktisch von Nutzen sein können, obwohl niemand vorhat, das Verhalten der Konsumenten oder der Prozessoren auf das Verhalten ihrer Moleküle oder ihrer Quarks zu reduzieren.  Wir waren uns einig, dass die Objektivierung gerade im Bereich der Ökonomik schwierig ist, dass sie weniger prognostische Kraft und weniger Einigungskraft für die Scientific Community hat, dass es daher zu Schulenbildungen kommt. Aber das, auch darüber waren wir uns einig, findet man auch in der Physik, vor allem wenn es um neue und noch unklare Phänomenbereiche geht.

Es gibt also faktisch eine große Pluralität von Phänomenbereichen, in denen die klassische Logik mitsamt dem Objektivierungsverfahren angewandt wird. Tatsächlich wissen wir aber wenig darüber, wie diese verschiedenen Phänomenbereiche miteinander zusammenhängen. Das mag im Verhältnis von Physik und Ökonomik keine drängende Frage sein, aber im Verhältnis von Physik und Informatik beginnt die Frage in jüngerer Zeit, drängend zu werden. Natürlich haben wir die Fähigkeit, auch mit solchen Situationen umzugehen, nicht selten sind zwei Wissenschaften zu einer neuen Wissenschaft zusammengewachsen. Aber das geschieht immer ad hoc, und die Logik, die wir unsere Logik nennen, leistet für derartige Fragen keine Unterstützung. Hier kommt Gotthard Günther ins Spiel, der die Idee der logischen Orte eingeführt hat, unabhängig vom physikalischen Raumbegriff, mit philosophischen Mitteln. Ein logischer Ort ist ein Ort, an dem die (klassische) Logik, einschließlich des Objektivierungsverfahrens, angewandt wird. So können wir zwei oder mehr Orte haben, an denen je eine Logik wirkt (das kann in beiden Fällen die selbe Logik sein, nur jeweils auf einen anderen Phänomenbereich angewandt), und Günther hat die Frage nach dem Zusammenhang mehrerer logischer Orte ganz allgemein zu thematisieren versucht.

Auch innerhalb der Physik sehe ich eine Anwendungsmöglichkeit für diesen Gedanken, nämlich wenn es um das Verhältnis zwischen klassischer Physik und Quantenphysik geht (wobei ich zur klassischen Physik auch die spezielle und allgemeine Relativitätstheorie hinzurechne), sofern wir uns darauf verständigen können, dass nicht die eine Physik auf die andere zurückgührt werden kann, dass insbesondere also die klassische Physik nicht einfach nur ein Spezialfall der Quantenphysik ist. Sie haben mir erklärt, dass man die klassische Physik sehr wohl als Spezialfall der Quantenphysik auffassen kann, wenn man es so betrachtet, dass die Antworten der Quantenobjekte auf unsere Fragen probalistisch sind, während die Antworten der klassischen Objekte auf unsere Fragen deterministisch sind, und den deterministischen Fall kann man als den probablistischen Spezialfall betrachten, der nur mit den Wahrscheinlichkeitswerten 0 und 1 operiert.

Dem hielt ich entgegen, dass diese Sichtweise den Wahrscheinlichkeitsbegriff voraussetzt, und dass der Wahrscheinlichkeitsbegriff philosophish problematisch ist. Wenn wir den Wahrscheinlichkeitsbegriff nicht voraussetzen wollen, müssen wir unsere Aufmerksamkeit mehr auf das einzelne Quantenobjekt richten, und weniger auf Ensembles von Quantenobjekten (die man als potenziell unendlich denken muss, will man zu definiten Wahrscheinlichkeitswerten kommen). Und dann rückt die Interaktion zwischen Messgerät und Quantenobjekt ins Zentrum des Interesses, die ja nichts anderes ist als der Kern der empirischen Interaktion zwischen dem Subjekt und dem Objekt der Quantenphysik. Auf dieser Ebene lässt sich beobachten, dass die Tatsache der Messung eine nicht vernachlässigbare Wirkung auf das Quantenobjekt hat, die dessen Antwortverhalten für spätere Messungen beeinflusst. Ich habe das so formuliert, dass das Quantenobjekt ein "Gedächtnis" hat, das genau von einer Messung bis zur nächsten reicht und mit der nächsten Messung gelöscht wird.

Unsere daran anschließende Diskussion des Stern-Gerlach-Experiments für den Fall Spin-1/2  ergab, dass diese Sichtweise den Sachverhalt nicht genau trifft. Genau genommen haben wir je Elektron nur zwei Gelegenheiten, mit ihm zu interagieren, nämlich während der Präparation und während der Messung. Noch genauer genommen interagieren wir während der Präparation gar nicht mit dem Elektron. Nehmen wir an, die Präparation geschieht durch einen Stern-Gerlach-Appart, an dem der Spin-Down-Ausgang blockiert ist, dann heißt das, dass wir uns nur für einen Teil der eingehenden Elektronen interessieren, nämlich für jene, die den Spin-Up-Weg genommen haben. Ein bestimmtes Elektron hat sich also nicht gemerkt, was wir an ihm gemessen haben, sondern es hat sich spontan für den einen oder anderen Weg entschieden, zufällig war es der Spin-Up-Weg, und das merkt das Elektron sich so lange, bis wir es messen, d. h. bis es mit unserem Detektor kollidiert, woraufhin es für immer aus unseren Interaktionsmöglichkeiten verschwindet. Was das Elektron danach noch von der Begegnung mit uns weiß, können wir nicht wissen. Wir waren uns auch darüber einig, dass die Entität "Elektron" nur ein mentales Konstrukt ist, dessen empirische Basis nicht mehr als ein einziges Klicken an einem unserer Detektoren ist.

An dieser Stelle unseres Dialog haben wir nicht konsequent  zu Ende diskutiert, eigentlich müsste man hier noch die "virutellen" Interaktionen einführen, die wir durch das Aufstellen weiterer Stern-Gerlach-Apparate zwischen Präparation und Messung mit dem Quantenobjekt haben können. Aus dem Vergleich verschiedener solcher Aufstellungen kann man entnehmen, dass das Antwortverhalten der Quantenobjekte von der Reihenfolge dieser virtuellen Interaktionen abhängt, wir beobachten also Interferenzphänomene, und diese sind, neben dem Indeterminismus, spezifisch für die Quantenphysik. In der Quantenphysik wird dieses Verhalten durch Kommutatoren beschrieben, und mit ihnen kommt mit das Planck'sche Wrikungsquantum h ins Spiel. Die oben gestellte philosophische Frage nach dem Verhältnis zwischen klassischer Physik und Quantenphysik spitzt sich nun so zu: kann man die klassische Physik als denjenigen Spezialfall der Quantenphysik betrachten, in dem h "gegen 0 geht" oder "gleich 0 ist" oder "vernachlässigbar ist"? Das sollten wir diskutieren, wenn wir wieder zusammentreffen.

Mir ging es in diesem Zusammenhang darum festzustellen, dass im Schema der Stern-Gerlach-Experimente eine links-rechts-Symmetrie zu beobachten ist, nämlich eine Symmetrie zwischen Präparation und Messung sowie zwischen Stern-Gerlach-Apparaten und umgedreht aufestellten Stern-Gerlach-Apparaten. Diese Symmetrie deute ich als einen Hinweis darauf, dass mit dem Übergang zur Quantenphysik ein symmetrischer Aspekt in die Subjekt-Objekt-Relation der Physik hinein gekommen ist. Die seltsame Beobachtung, dass manche von uns dazu tendieren, antropomorphe Sprechweisen für Quantenobjekte zu verwenden, deute ich als einen Hinweis in die gleiche Richtung.

In diesem Zusammenhang ist es wichtig zu sehen, dass unsere ganze Mathematik eine grundlegend asymmetrische Operationsweise hat. Moderne Mathematik wird im Prädikatenschema formuliert, und das Prädikatenschema organisiert im Wesentlichen den Zusammenhang zwischen Objektbezeichnern und Eigenschaftsbezeichnern (wobei Relationsbezeichner als Verallgemeinerung von Eigenschafsbezeichnern eingeschlossen sind). Dieses Verhältnis zwischen Eigenschaftsbezeichnern und Objektbezeichnern ist asymmetrisch, was man auch daran sehen kann, dass Objektbezeichner als Konstanten und als Variablen vorkommen, während Eigenschaftsbezeichner stets Konstanten sind. Man kann auch die Eigenschaftsbezeichner variabel gestalten, dann ist man beim Prädikatenschema zweiter Stufe, und so weiter, aber immer braucht man eine oberste Ebene, auf der die Eigenschaftsbezeichner Konstanten sind. Im weiteren Strukturaufbau kann man die Asymmetrie der Mathematik sehr gut in der Mengenlehre beobachten. Von der Vielfalt von Eigenschafts- und Relationsbezeichnern, die das Prädikatenschema erlaubt, beschränkt die Mengenlehre sich auf genau zwei zweistellige Relationsbezeichner, nämlich Gleichheit und Enthaltensein (= und ). Nun trägt aber das Gleichheitszeichen nichts zur Strukturbildung bei, es kann nur feststellen, wenn zwei Terme ein und das selbe Objekt bezeichnen. Die einzige strukturbildende Relation der Mengenlehre ist damit das Epsilon, und dieses ist asymmetrisch. Der Zusammenhang zwischen Gleichheit und Enthaltensein wird durch das Extensionalitätsaxiom geregelt, welches sagt, dass zwei Mengen genau dann gleich sind, wenn die gleichen Elemente in ihnen enthalten sind. Auf der Objektebene kann natürlich Symmetrie ausgedrückt werden. Eine Relation kann symmetrisch oder asymmetrisch sein, je nachdem, wie ich es axiomatisch festlege. Dennoch bleibt das Verhältnis zwischen Relation und Relata ein asymmetrisches.

Die Asymmetrie der Mathematik hat ihren Grund in der Asymmetrie der Subjekt-Objekt-Relation. Nur ein asymmetrisches Werkzeug eignet sich dafür, die asymmetrische Subjekt-Objekt-Relation zu organisieren. Wenn nun mein obiger Eindruck stimmt, dass durch Experimente vom Stern-Gerlach-Typ ein Element von Symmetrie in die Subjekt-Objekt-Interaktion hineinkommt, dann wirkt es ganz natürlich, dass diese Art von Empirie sich dagegen sperrt, im Rahmen des asymmetrischen Prädikatenschemas ausgedrückt zu werden. Wie immer sind wir auch mit diesem Problem fertig geworden, wir haben neue mengentheoretische Strukturen aufgebaut, die flexibler sind als die klassischen, und die in der Lage sind, mit dieser neuen Mixtur aus Asymmetrie und Symmetrie, die nun unsere Subjekt-Objekt-Interaktion beherrscht, fertig zu werden. Aber das ist ad-hoc geschehen, und wir haben nicht verstanden, was wir da tun, denn unsere Logik leistet für derartige Strukturübergänge keinerlei Unterstützung.

Die Günther'sche Idee in diesem Zusammenhang wäre nun, einige Aufmerksamkeit darauf zu richten, inwiefern die Begrenzungen des Identitätsprinzips zu den Schwierigkeiten mit der alten Struktur geführt haben, und genau zu studieren, wie der Prozess des Übergangs von der alten Struktur zur neuen es möglicht gemacht hat, die Begrenzung an dieser Stelle außer Kraft zu setzen. An diese Analyse schließt sich ein weiterer Schritt an, der darin besteht, die gefundene Denkbewegung aus ihrem Entstehungskontext herauszulösen und dadurch zu radikalisieren, dass wir das Identitätsprinzip partiell außer Kraft setzen. Auf diese Weise können wir vielleicht zu neuen Denkfiguren finden, deren epistemischer Status es mit demjenigen der logischen Denkfiguren aufnehmen kann.

Eine Idee, das Identitätsprinzip partiell außer Kraft zu setzen, besteht darin, die Reihe der natürlichen Zahlen als endlich anzunehmen. Dann gibt es keine theoretischen Grenzübergänge, was ja mit der praktischen Erfahrung konform geht, dass es keine unendlichen Messprozesse gibt. Mit dieser Annahme geht die argumentative Kontintuität zwischen der Betrachtung von relativen Häufigkeiten im Experiment und der Betrachtung von definiten Wahrscheinlichkeiten im Hilbertraum verloren, was man bedauern kann, was man aber auch als Chance sehen kann, den Zusammenhang zwischen Experiment und Theorie begrifflich genauer zu klären. Hier kommen uns neuere Entwicklungen aus der Quanteninformatik entgegen, die es unternehmen, die Quantenphysik algebraisch oder kategorientheoretisch zu generalisieren. Der Anlass ist die neuartige Empirie des Quantencomputing, eine Empirie, die sich mehr für einzelne Quantenobjekte interessiert als für Ensembles von Quantenobjekten, insbesondere für die Frage, wie man verschränkte Paare von Quantenobjekten - in Verbindung mit einem klassischen Informationskanal - zum Rechnen oder Kommunizieren nutzen kann.

Wir haben also nun zwei essenzielle Abstraktionsrichtungen für den Hilbertraum: zum einen die Abstraktion zur projektiven Geometrie der Teilräume, die gut mit dem empirischen Aussagenverband zusammen passt, zum andern die Abstraktion zur symmetrischen monoidalen Kategorie der Operatoren, in der die Formulierung des Tensorprodukts sehr einfach ist, und die gut mit den Erfordernissen des Quantencomputing zusammen passt. Die Theorie der Prognosen auf Grundlage des Aussagenverbands lässt sich finitistisch formulieren (so habe ich heute von Ihnen gelernt), indem man nur von relativen Häufigkeiten spricht, nicht von Wahrscheinlichkeiten. Die Phänomene des Quantencomputing sind ohnehin stets finitistisch, und die Kategorientheorie ist, als algebraische Theorie, ihrem Wesen nach finitistisch. Als nächstes gilt es nun, den Zusammenhang zwischen diesen beiden Abstraktionsweisen (und den damit zusammenhängenden Phänomenbereichen) begrifflich zu klären, ohne den Wahrscheinlichkeitsbegriff zu bemühen. Dann sind wir möglicherweise so weit, dass wir das Verhältnis zwischen Quantenphysik und klassischer Physik näher bestimmen können.

E-Mail von D an Matzka, 29. 09. 2010

Betr.: Wahrscheinlichkeit

Zu Ihrer Darstellung der Wahrscheinlichkeit (vorletzter und letzter Absatz) noch eine Anmerkung:
Sie schreiben, die argumentative Kontinuität zwischen (exp.) relativen Häufigkeiten und den Wahrscheinlichkeiten im Hilbertraum ginge verloren, bzw. ich würde nur von relativen Häufigkeiten sprechen, nicht von Wahrscheinlichkeiten. Mein Punkt wäre, daß ich gerade von Wahrscheinlichkeiten rede! Nur bin ich nicht einverstanden, daß man Wahrscheinlichkeit als Grenzwert o.ä. von relativen Häufigkeiten definiert, sondern als vorausgesagte relative Häufigkeit.

Das mit dem Grenzwert im übliche Sinn geht ja nicht; es gibt kein N in einer Versuchsreihe, von dem an die Differenz zwischen relativer Häufigkeit und Wahrscheinlichkeit kleiner als ε würde, denn die Abweichung kann immer beliebig groß sein – gerade nach der W.-Theorie selber. Das bringt man üblicherweise in Ordnung durch begriffliche Drahtseilakte, bei denen mir schon beim Zuschauen schwindlig wird. Haben Sie schon einmal versucht, den Beweis des "Starken Gesetzes der großen Zahlen" begrifflich zu analysieren?

Wahrscheinlichkeit durch relative Häufigkeit zu ersetzen – wie Physiker das naiv tun – geht aber auch nicht. Denn die Wahrscheinlichkeit der Eins bei einem "guten" Würfel ist 1/6, und das kann empirisch z.B. bei sieben Würfen nicht die relative Häufigkeit sein. Deshalb sage ich, Wahrscheinlichkeit ist vorausgesagte relative Häufigkeit, mit der reservatio mentalis, daß sie sich empirisch nur ungefähr bewähren wird; dieses "ungefähr" läßt sich aber wahrscheinlichkeitstheoretisch – sozusagen intern – beliebig präzisieren. Auf Grenzübergänge über dieses "beliebig" hinaus brauche ich mich nicht einzulassen.

Es würde mir Spaß machen, das noch näher zu diskutieren!

E-Mail Matzka an D, 30. 09. 2010

Betr.: Wahrscheinlcihkeit

Zur Vereinfachung der Diskussion beziehe ich mich auf irgend ein passendes - und für die Dauer dieses Arguments fixiertes - quantenphysikalisches Experiment. Angenommen wir haben dieses selbe Experiment schon oft durchgeführt. Jede Durchführung hatte eine bestimmte Länge und hat eine bestimmte Häufigkeitsverteilung produziert, was wir protokolliert haben. Aus diesen Daten wollen wir nun die Häufigkeitsverteilung für das bevorstehende Experiment prognostizieren. Wie machen wir das? Wir brauchen dazu einen Algorithmus, den wir auf unsere Datenbasis anwenden können und der uns die Prognose liefert. Die Wahrscheinlichkeitstheorie liefert uns einen solchen Algorithmus. Wir müssen die Wahrscheinlichkeitstheorie nicht verstehen, um den Algorithmus anzuwenden. Die Zahlen, die der Algorithmus liefert, nennen wir Wahrscheinlichkeiten, das kann uns keiner verbieten. Tatsächlich handelt es sich ja bei diesen Prognosen nicht um Häufigkeitsverteilungen, wie Sie zu recht betonen.

Offen bleibt bei dieser Position die Frage, wie der Algorithmus begründet ist. Man könnte sagen, dass er in der Erfahrung begründet ist, er hat sich schließlich immer wieder gut bewährt. Aber wir haben den Algorithmus nicht durch Trial and Error gefunden, sondern die Mathematiker haben ihn durch theoretische Überlegungen gefunden. In diesen theoretischen Überlegungen spielen unendliche Folgen von rellen Zahlen sowie Konvergenzüberlegungen eine prominente Rolle. Man mag gegenüber der infinitesimalen Mathematik skeptisch sein, aber sie liefert durchaus prognostisch potente Algorithmen. Da wollen wir es doch mit der begrifflichen Klarheit nicht so genau nehmen.

So jedenfalls denkt der Physiker, und er muss so denken. Als Philosophen dürfen wir uns die Freiheit nehmen, anders zu denken. Ich habe die Gesetze der großen Zahlen unter diesem Aspekt nicht genauer untersucht; aber wenn es für unseren Diskurs wichtig wird, werde ich es gerne mal tun. Der mathematische Beweis wird wohl stimmen, das Problem dürfte in der Interpretation liegen. Schon der kolmogoroff'sche Wahrscheinlichkeitsbegriff ist in einer infinitesimalen Mathematik gegründet, und damit in theoretischen Denkfiguren, die sich praktisch nicht einlösen lassen. Daran muss jeder Versuch einer präzisen Interpretation scheitern.

Mit Ihrem Vorschlag, Wahrscheinlichkeit als prognostizierte relative Häufigkeit zu definieren, bin ich auch nicht glücklich. Denn das heißt doch wohl praktisch: prognostiziert auf der Grundlage von Algorithmen, die ihre Begründung in der infinitesimalen Mathematik haben. Dass wir uns auf diese infinitesimalen Verstrickungen nicht einlassen müssen, entlässt uns nicht aus der Verantwortung, außer wir hätten andere prognostische Algorithmen zur Verfügung, die anders als infinitesimal begründet sind. Derlei scheint mir aber nicht in Sicht zu sein.

Mein Ansatz zum Thema Wahrscheinlichkeit ist, zu fragen, was durch die reflexartige Verwendung dieses Begriffes eigentlich verdeckt wird. Das Motiv, neben den beiden Wahrheitswerten wahr und falsch einen oder mehr dritte Wahrheitswerte zuzulassen, entgegen den Geboten der klassischen Logik, ist ja absolut honorig, wenn es um Situationen geht, in denen die Frage "wahr oder falsch" als unangemessen eng erscheint, wie es bei Fragen über zukünftige Ereignisse meist der Fall ist. Aber wenn wir neben einem dritten Wahrheitswert "möglich" noch einen vierten oder fünften haben wollen, um zwischen stärker möglichen und weniger stark möglichen Ereignissen differenzieren zu können, dann stürzt unser Denken sich reflexartig in die Iterationen des Differenzierens, die kein Halten haben, bevor nicht die Strecke zwischen wahr und falsch als die Strecke zwischen 1 und 0 lückenlos mit Möglichkeitswerten angefüllt ist.

Aber wir müssen diesem Reflex nicht folgen. Wenn wir eine bestimmte Frage haben, die unsere Zukunft betrifft, dann könnten wir statt dessen erst mal fragen, welchen Gewinn wir uns eigentlich davon erhoffen, dass wir wissen, ob die eine oder die andere Variante dieser Zukunft stärker oder weniger stark möglich ist. Dann können wir abschätzen, wie weit wir die Differenzierung treiben möchten. Damit wird die zeitliche Logik (nach der Weizsäcker suchte) in die Logik unserer Zwecke eingebettet. Wenn unsere Zwecke es erfordern, dass die Differenzierung der Möglichkeitsstärken extrem ausgeprägt ist, wie es in der Physik ausnahmslos der Fall zu sein scheint, dann ist Wahrscheinlichkeit ein sehr leistungsfähiger Weg. Aber wenn wir unsere Zwecke - und selbst die Zwecke der Physik - genauer untersuchen, werden wir vielleicht dahinter kommen, dass es in vielen Fällen gar nicht so wichtig ist, eine extreme Differenziertheit der Möglichkeitsstärken zur Verfügung zu haben. Vielleicht finden wir sogar Zwecke, für die es reicht, zwischen wahr (oder notwendig) und falsch (oder unmöglich) einen dritten Wert möglich einzuschieben. Das reicht zumindest aus, um bestimmte Experimente interessant zu finden, die uns darüber informieren, welches Ereignis wirklich eintritt. Wenn wir solche Zwecke oder Experimente finden, haben wir ein Untersuchungsfeld, in dem wir die zeitliche Logik begrifflich entwickeln können, ohne durch infinitesimale Konstrukte geblendet zu werden.

Als Beispiel schwebt mir das Schema der Experimente vom Stern-Gerlach-Typ zu Spin 1/2 vor, in dem alle Stern-Gerlach-Apparate nur in strikt vertikalen (Spin-Messung Up-Down) und strikt horizontalen (Spin-Messung Links-Rechts) Positionen aufgestellt sind. Praktisch können wir relativ schnell entscheiden, ob ein Experiment immer nur einen Detektor zum Klicken bringt oder ob beide Detektoren gelegentlich klicken, und nur das ist nötig, um herauszufinden, was in einem derartigen Experiment wirklich passiert. Damit sind wir in einem praktisch relevanten Sinn vom Gesetz der großen Zahlen unabhängig, wie auch vom Kontinuum der rellen oder komplexen Zahlen. Wir machen in diesem Fall nur von der geometrischen und algebraischen Struktur des Hilbertraums gebrauch, nicht von seiner topologischen Struktur, was die Analyse sehr vereinfacht.

In Ihrer transzendentalen Rekonstruktion von 1979 haben Sie den Zugang über die geometrische Struktur gewählt, die projektive Geometrie seiner Teilräume. Wenn ich recht erinnere, hat Weizsäcker auf einem der anderen drei Rekonstruktionswege einen Zugang über die Gruppenstruktur der unitären Operatoren versucht, das habe ich leider nicht genau studiert. Algebraisch kann man jedenfalls zwischen hermite'schen und unitären Operatoren unterscheiden, so bald man neben dem gruppentheoretischen Begriff des inversen Elements noch den involutiven Automorphismus der Adjunktion zur Verfügung hat. Auch Projektoren lassen sich auf einfache Art algebraisch einführen.

Wir könnten nun beide Abstraktionen vom Hilbertraum (die geometrische und die algebraische) daraufhin prüfen, was die minimale Teilstruktur ist, die wir brauchen, um für Experimente vom obigen Typ die Dynamik der Quantenobjekte beschreiben zu können. Dann sollte eigentlich klarer werden, wie die beiden Abstraktionen miteinander zusammenhängen.

Bei alledem ist das Thema der Interaktion von Quantenobjekten noch nicht in unser Blickfeld geraten. Für Interaktion brauchen wir ein Tensorprodukt, und das ist etwas, das sich nicht innerhalb eines Hilbertraums abspielt, sondern zwischen zwei Hilberträumen. Als algebraische Struktur kommt es daher erst ins Blickfeld, wenn wir einen kategorientheoretischen Standpunkt einnehmen, von dem aus wir die Klasse aller Hilberträume strukturell zu erfassen suchen. Dann können wir in die Kategorie aller Hilberträume ein Tensorprodukt einführen, als Bifunktor, und dadurch wird die Kategorie aller Hilberträume selbst zu einem symmetrischen Monoid oder zu einer symmetrischen monoidalen Kategorie. Große Teile der quantenphysikalischen Begriffe lassen sich in diesem kategorientheoretischen Begriffsrahmen reformulieren. Zum Beispiel erscheint unser Skalarkörper im kategorientheoretischen Bild als das neutrale Element der Monoidstruktur.

An dieser Stelle sollten wir zu dem Schema der Stern-Gerlach-Experimente noch ein ähnlich simplistisches Schema für EPR-Experimente hinzunehmen, um zu prüfen, wie die minimale algebraische Struktur aussehen muss, um die Dynamik der Quantenobjekte in jenen Experimente auszudrücken. Wenn das geleistet ist, wird es darum gehen, über das Verhältnis der drei Abstraktionen vom Hilbertraum nachzudenken, die wir dann gewonnen haben.

E-Mail D an Matzka, 1. 10. 2010

Betr.: Re Wahrscheinlichkeit

vielen Dank für Ihre Anregungen!

Ich will nur kurz reagieren, wie es mir gerade in den Sinn kommt:

1.    Die Wahrscheinlichkeitsrechnung läßt sich ganz ohne Infinitesimalrechnung begründen. Ihre Grundregeln sind ja relativ einfach. Ich behaupte, daß sie aus der Definition als vorausgesagte relative Häufigkeit schon folgen. Wenn Sie das nachlesen wollen: In meinen Lecture Notes in Physics von 1979 habe ich das in Kap. IV dargestellt – vielleicht etwas umständlich, aber inhaltlich bin ich nach wie vor derselben Meinung. Auch für die Ableitung der Bayesschen Regel braucht man keine Infinitesimalrechnung.

2.    Allerdings ist es sicher vernünftig, wie Komogoroff für die Wahrscheinlichkeit reelle Zahlen einzuführen: Man hat dann den ganzen Apparat der Infinitesimalrechnung zur Verfügung. Außerdem gewinnt man eine Ausweitung der für das Finden von Wahrscheinlichkeiten entscheidenden Möglichkeit, nämlich die Benutzung von Symmetrien. In Wirklichkeit kommt man ja als Physiker (anders als vielleicht ein Volkswirt) auf Wahrscheinlichkeiten nicht empirisch, sondern durch Betrachtung von Symmetrien. Das ist schon am Anfang der Wahrscheinlichkeitsrechnung so, beim Würfel (mit 6 gleichbehandelten Seiten oder beim Kartenspiel mit 52 gleichbehandelten Karten), gilt aber auch für die Quantenmechanik. Da kommen allerdings oft sehr komplizierte Symmetriebetrachtungen ins Spiel, bei denen man natürlich ohne infinitesimale Betrachtungen nicht auskommt. Schon das Buffonsche Nadelproblem ergibt ja in einer Variante eine Wahrscheinlichkeit ~1/π.

3.    Was lehrt uns das für die Rolle der Mathematik in der Naturwissenschaft? – Die Wahrscheinlichkeitstheorie ist begrifflich nicht auf Infinitesimalrechnung angewiesen. Die kommt erst mit der Geometrie (im Wesentlichen) herein. Aber Geometrie kann man vielleicht auch finitistisch machen. Es gibt zwar bisher keine überzeugenden Vorschläge dazu, aber ist denn der „Raum selber“ ein Kontinuum? Oder das Vakuum? – Das sind ja große Fragen der heutigen Feldtheorie. Wahrscheinlich sind diese Fragen falsch gestellt.

E-Mail Matzka an D, 1. 10. 2010

Betr.: Symmetrie

Zu 1: vollständig akzeptiert.

Zu 2: was das Vernünftigsein betrifft, möchte ich gern zwei Orte der Vernunft in unseren Diskurs einführen, einen physikalischen Ort und einen philosophischen Ort. Am physikalischen Ort ist es fraglos vernünftig, infinitesimale Methoden einzuführen, vor allem wenn es so ist, wie Sie sagen, dass man dann bessere Möglichkeiten hat, Symmetrien für das Berechnen von Wahrscheinlchkeiten zu benutzen. Am philosophischen Ort interessieren mich jedoch, ehrlich gesagt, die Symmetrien mehr als die Wahrscheinlichkeiten. Deshalb schlage ich eine philosophische Forschungsstrategie vor, die darin besteht, einen finitistischen Wahrscheinlichkeitsbegriff zu akzeptieren, gegenüber einem infinitesimal begründeten Wahrscheinlichkeitsbegriff jedoch skeptisch zu sein. Um diese Skepsis ein wenig zu radikalisieren, schlage ich als philosophisches Axiom die Endlichkeit der Reihe der natürlichen Zahlen vor.

Wegen 1. haben wir dann im philosophischen Diskurs immer noch einen Wahrscheinlichkeitsbegriff zur Verfügung. Gibt es eine Möglichkeit, von unserem philosophischen Ort aus die Quantenphysik zu verstehen? Sie sagen, in der Quantenphysik kommt man nicht ohne Infinitesimalrechnung aus, also scheint es so zu sein, dass wir die Quantenphysik nicht verstehen können, denn die infinitesimalen Denkfiguren sind allesamt von der Art, dass wir sie praktisch nicht einlösen können, und daher auch nicht präzise interpretieren können. Deshalb schlage ich vor, die Stellen zu identifizieren, an denen die Quantenphysik nicht ohne Infinitesimalrechnung auskommt, und diese Stellen begrifflich zu klären.

Bezüglich der Wahrscheinlichkeitstheorie ist uns ja schon eine partielle Klärung gelungen. Der finite Wahrscheinlichkeitsbegriff ist in Symmetrien begründet. Nun finde ich die Frage spannend: was sind das für Symmetrien, die uns zwingen, zu einem infinitesimalen Wahrscheinlichkeitsbegriff überzugehen?

Zu 3: Denkt man mit Kant den Raum als die Form der äußeren Anschauung, dann können wir diesen Raum praktisch messend ausdifferenzieren, immer nur mit einem endlichen Grad von Differenzierung, der vom Stand der Technik abhängt. Der Möglichkeitsraum solcher Vermessung ist das dreidimensionale kartesische Produkt der Menge der rationalen Zahlen. Interessanterweise besitzt dieser Raum unter unserer philosophischen Axiomatik nur endlich viele Rasterpunkte.

Der kantische Raum hat ein Zentrum, und das ist der Körper des transzendentalen Subjekts. Er hat auch eine Orientierung: Unser seitlich abgestreckter rechter Arm weist die x-Achse, unser Kopf weist die y-Achse und unser gerader Blick weist die z-Achse. Aber schon der vor-relativistische Raum der Physik hat kein Zentrum mehr, es ist kein Vektorraum, wie der kantische Raum, sondern ein affiner Raum. Der Übergang vom Vektorraum zum affinen Raum wird bekanntlich durch eine Symmetrie organisiert, nämlich die Gruppe der Galilei-Transformationen. Diese Gruppe funktioniert im dreidimensionalen Raum über dem Körper der rationalen Zahlen ebenso gut wie über dem Körper der reellen Zahlen. Wir können also den Übergang vom kantischen Raum zum Raum der vor-relativstischen Physik philosophisch nachvollziehen.

Was ist mit der Zeit, der Form der inneren Anschauung? Wir bringen sie nach außen, indem wir Uhren bauen, und das sind Konstrukte, die uns die Zeit als Linie zu denken erlauben. Wieder ist uns praktisch nur der rationale Teil der Zeitachse zugänglich, wir verfügen also nur über endlich viele Zeitpunkte. Vor-relativistisch können wir davon ausgehen, dass es eine große Kirchturmuhr gibt, die für uns alle gilt.

Am Ort der Physik suchen wir ein Gesetz, das die Dynamik eines Massepunkts beschreibt. Wir beschreiben seinen Pfad, betrachten die Kraft, die auf ihn wirkt, und stellen fest, dass die Kraft zur Beschleunigung proportional ist, also zur zweiten Ableitung der Ortsvariablen nach der Zeitvariablen. Als Philosophen fragen wir natürlich sofort: was, um alles in der Welt, ist eine "zweite Ableitung"? In einem Raum mit nur endlich vielen Punkten gibt es keine Grenzwerte, also auch keine Ableitungen, und schon gar keine zweiten Ableitungen.

Die philosophische Frage an den Physiker heißt also: lässt sich der eigentliche Sinn des Newton'schen Bewegungsgesetzes finitistisch ausdrücken? Können wir über die Bahn eines Massekörpers eine Prognose machen, die sich nicht auf infinitesimale Methoden abstützt? Ich vermute, dass die Situation hier nicht viel anders als in der Wahrscheinlichkeitstheorie ist. Wir müssen nur wissen, wie genau unsere Prognose mindestens sein muss, und dann können wir einen Algorithmus finden, der aus den faktisch vorliegenden Vergangenheitsdaten über die Bahn eine Prognose über eine zukünftige Messung an dieser Bahn errechnet. Die Frage wird dann wohl sein, ob wir einen allgemein gültigen Algorithmus finden können, den wir immer anwenden können, und meine Vermutung ist, das dieser Aufgabe nur ein infinitesimal begründeter Algorithmus gewachsen ist, in der Geometrie wie in der Wahrscheinlichkeitsrechnung.

Wir betreiben objektivierende Wissenschaft, um zu lernen, wie wir aus den Fakten der Vergangenheit Prognosen für die Zukunft generieren können. Die Ergebnisse der objektivierenden Wissenschaft sind Algorithmen, die solches gestatten. Algorithmen sind endliche Konstrukte. Nun scheint es oft vorzukommen, dass es leichter ist, gute Algorithmen zu finden, wenn wir unserem Denken gestatten, die Iterationen unseres Handelns ins Unendliche hinein weiterzudenken, obwohl sich das praktisch nicht einholen lässt. Faktisch können wir auch nicht endlich weit oder endlich lange denken, wir bedienen uns deshalb eines logischen Tricks, um einen unendlichen Gedanken in endlich vielen Schritten zu simulieren. Der Trick besteht darin, dass wir die Quantoren "es gibt" und "für alle" gemäß dem Schema "für alle ... gibt es ein ... so dass für alle" anwenden. Diese Quantorenfolge weist eine Symmetrie auf, die es sich nach meinem Geschmack lohnt, genauer zu untersuchen.

E-Mal Matzka an D, 4. 10. 2010

Betr.: Ort und Impuls

beim Nachdenken über den Sinn des Newton'schen Bewegungsgesetzes ist mir eine Frage in den Sinn gekommen, die ich Ihnen gern stellen möchte

Wir verfügen bekanntlich über zwei verschiedene Methoden, um den Impuls eines Massekörpers zu bestimmen:

1.    auf der Grundlage von Orts- und Zeitmessungen an einem einzelnen Massekörper, als Masse mal Momentangeschwindigkeit

2.    auf der Grundlage von Wechselwirkung mit einem anderen Massekörper von bekanntem Impuls beim elastischen oder unenlastischen Stoß

Wir können daher zwei Impulsbegriffe unterscheiden, sagen wir Differenzialimpuls und Stoßimpuls. Wenn wir den Übergang vom Ortsraum zum Impulsraum durch den Differenzialoperator regeln (Errechnen der Geschwindigkeit aus dem Ortspfad), und den Übergang vom Impulsraum zum Beschleunigungsraum ebenfalls (Errechnen der Beschleunigung aus dem Geschwindigkeitspfad), dann fallen Differenzialimpuls und Stoßimpuls natürlich zusammen. Wenn wir aber den Differenzialoperatoren misstrauen, oder wenn wir gar eine finitistische Mathematik zugrunde legen, dann fallen die beiden Begriffe auseinander.

Bekanntlich kann man das Newton’sche Bewegungsgesetz formulieren als

.

Da wir zwei verschiedene Impulsbegriffe haben, hat das Bewegungsgesetz zwei verschiedene Bedeutungen. Die erste Bedeutung ist bekanntlich eine strukturelle Bedingung für Pfade eines Massekörpers, die sich stets nur näherungsweise an die Wirklichkeit anlegen lässt. Was ist die zweite Bedeutung?

Eine Änderung des Stoßimpulses können wir empirisch nur feststellen, wenn wir an einem Objekt nacheinander zwei Stoßversuche machen, mit denen wir seinen Impuls messen. Das Newton’sche Gesetz sagt uns dann, dass die Impulsdifferenz, die wir da messen, gleich dem Kraftstoß zwischen diesen beiden Ereignissen ist, also gleich dem Produkt (oder Integral) aus Kraft und Zeitspanne. Ein Experiment zur Prüfung dieses Gesetzes würde so aussehen, dass man ein initiales und eine finales Stoßereignis arrangiert, also zwei Zusammenstöße des Objekts mit Probekörpern von bekanntem Impuls, und in der Zeit dazwischen ein bekanntes Kraftfeld auf das Objekt wirken lässt. Das initiale Ereignis muss ein elastischer Stoß sein (eine nicht-vernichtende Messung), das finale Ereignis kann auch ein elastischer Stoß sein (eine vernichtende Messung). Das Bewegungsgesetz gibt uns eine Prognose für das Ergebnis der finalen Messung, wenn wir das Ergebnis der initialen Messung und das Kraftfeld kennen.

Meine Frage: ist dieser Gedanke in der Physik schon diskutiert worden? Mich jedenfalls hat es überrascht, dass das Bewegungsgesetz nicht eindeutig sondern zweideutig ist, und dass seine zweite Bedeutung sich auf einen Typ von Experimenten bezieht, die ähnliche Symmetrieeigenschaften aufweisen wie unsere quantenmechanischen Experimente, und die diskontinuierliche Zustandsänderungen involvieren. Ich sehe das so, dass die klassische Mechanik zwei Zweige hat, nämlich

  1. eine asymmetrische und kontinuierliche Mechanik der Interaktion zwischen Massekörpern und Kraftfeldern und
  2. eine symmetrische und diskontinuierliche Mechanik der Interaktion von Massekörpern per Stoß,

eine Fernwirkungsmechanik und eine Stoßmechanik. Sie beruhen auf zwei verschiedenen Kinematiken, d. h. auf zwei verschiedenen Organisationsweisen der Subjekt-Objekt-Relation. Sehen die Physiker das auch so? Ist die Stoßmechanik je unabhängig von der Fernwirkungsmechanik entwickelt worden bzw. lässt sich das machen? Gibt es eine Messtheorie der Stoßmechanik? Das scheint mir interessant zu sein, wenn wir den Zusammenhang zwischen klassischer Mechanik und Quantenmechanik besser verstehen wollen.

E-Mail D an Matzka, 5. 10, 2010

Betr.: Re Stoßmechanik

leider kenne ich keine Versuche, eine finitistische Mechanik einzuführen.
Wenn man das versuchen wollte, müßte man doch Differentialquotienten durch Differenzenquotienten ersetzen, z.B. bei der Geschwindigkeit, wie Sie zur Definition des Impulses vorschlagen.
Wie angenehm ist dagegen doch die Infinitesimalrechnung!

E-Mail Matzka an D, 28. 10. 2010

Betr.: Symmetrie

In unserem nächsten Gespräch würde ich gern auf dasThema Symmetrie zusteuern, und auf die Frage, welche Rolle der Symmetriebegriff in der Quantenphysik bzw. in der Relativitätstheorie spielt. Meine Arbeitshypothese dazu lautet: In der Quantenphysik ist eine partielle Symmetrisierung des Subjekt-Objekt-Verhältnisses das leitende Symmetriemotiv, in der Relativitätstheorie ist die Explikation des Subjekt-Subjekt-Verhältnisses das leitende Symmetriemotiv. Zur Klärung dieser Hypothese würde ich gern mit Ihrer Hilfe die wichtigsten Operatoren der QP bzw. der RT auflisten und deren Symmetrie- und Asymmetrieeigenschaften sowie ihre semantische und operative Bedeutung untersuchen.

E-Mail Matzka an D, 16. 11. 2010

Betr.: Zum Ziel unserer Gespräche

beim Nachdenken über unser gestriges Gespräch wird mir deutlich, dass ich Ihre Frage, welches Ziel ich bei unseren Gesprächen verfolge, nur sehr ungenau beantwortet habe. Deshalb will ich eine ausführlichere Beantwortung Ihrer Frage hiermit schriftlich nachreichen.

Mein Ausgangspunkt ist der, dass in der Physik zwei Arten von Erfahrung zusammenkommen: Erfahrung mit der Natur und Erfahrung mit der Sprache / Schrift. Wir machen Erfahrungen mit der Natur, und drücken diese in der Sprache / Schrift aus. Zu diesem Zweck erzeugen wir sprachliche / schriftliche Konstrukte, die geeignet sind, die Inhalte unserer Naturerfahrung zum Ausdruck zu bringen. Umgekehrt prägen aber sprachliche / schriftliche Strukturen unser Vorverständnis, wenn wir daran gehen, neue Experimente auszudenken und durchzuführen. Es gibt also eine Wechselwirkung zwischen Naturerfahrung und Spracherfahrung / Schrifterfahrung

Nun ist es aber so, dass wir von dieser Wechselwirkung zumeist nur die eine Richtung im Auge haben, wenn wir Physik betreiben. Wir haben nur die Wirkung von der Naturerfahrung auf die Sprach- / Schrifterfahrung im Auge. Wir begreifen unsere sprachlichen / schriftlichen Strukturen als Abbild eines Urbildes, und dieses Urbild ist ein bestimmter Aspekt unserer Naturerfahrung. Wir stehen unter dem Eindruck, dass die Naturerfahrung ist, was sie ist, ganz unabhängig von der Sprach- / Schrifterfahrung, und dass unsere Erzeugung der Sprach- / Schriftkonstrukte nur nachbilden, was wir an der Natur erfahren haben. Wir richten unsere Aufmerksamkeit üblicherweise nicht auf die Wirkung, welche die Sprach-/Schrifterfahrung auf die Naturerfahrung ausübt.

Was die Sprach-/Schrifterfahrung angeht, beschränke ich mich im Folgenden auf die Schrifterfahrung, wobei ich speziell die mathematische Erfahrung im Auge habe. Die mathematische Erfahrung hat eine eigene Dynamik, ebenso wie die physikalische Erfahrung eine eigene Dynamik hat, aber es sind dies zwei verschiedene Dynamiken. Der Unterschied ist darin begründet, dass der Gegenstand der physikalischen Erfahrung die Natur ist, während der Gegenstand der mathematischen Erfahrung die Schrift ist. Schrift ist ein kulturelles Artefakt, und die Komponenten der Schrift - die Buchstaben - sind identisch, d. h. sie weisen die Merkmale der Einheit, Unterschiedenheit und Dauer auf. Wir wissen, dass die Komponenten der Schrift diese Merkmale aufweisen, weil wir sie genau zu diesem Zweck erfunden und kulturell implementiert haben. Die Naturerfahrung zerfällt hingegen nicht von selbst in identische Komponenten. Es ist eine subjektive Aktivität erforderlich, die aus der Erfahrung identische Komponenten herauslöst. Sie haben in diesem Zusammenhang vom prinzipiellen Näherungscharakter der Physik gesprochen.

Mich interessiert nun gerade dieser Prozess des Herauslösens identischer Komponenten aus der Wirklichkeit unserer Erfahrung, und er interessiert mich unter dem Aspekt, dass er wesentlich (prinzipiell) zur Physik dazu gehört, dass er aber in den mathematischen Strukturen der Physik nicht reflektiert ist. Die mathematische Erfahrung ist eine Erfahrung mit der Schrift, und diese Erfahrung hat es nicht mit dem Problem des Herauslösens identischer Komponenten zu tun, weil dieses Problem ein für allemal gelöst ist, seit wir kulturell über die Schrift verfügen. Es ist daher nötig, dass die Mathematik auf die kulturellen Grundlagen der Schrift reflektiert, um in ihrem eigenen Erfahrungsbereich die Prozesse des Herauslösens identischer Kompontenten ausfindig zu machen und auf sie zu reflektieren. Darüber habe ich in Neversdorf einiges gesagt.

Wenn das geleistet ist, kann die Mathematik zu einem kompetenteren Partner für die Physik werden, als sie es bislang ist. Die mathematische Kompetenz würde dann eine Kompetenz über das Herauslösen identischer Komponenten aus der Wirklichkeit der Erfahrung einschließen. Dann könnten Mathematik und Physik in einen Dialog über die Differenz ihrer Identitätsbildungsprozesse eintreten, und man könnte gemeinsam diese Differenz begrifflich bearbeiten.

Der Inhalt der mathematischen Erfahrung ist die Schrift, und die Schrift ist aus Komponenten aufgebaut, den Buchstaben. Das Konzept des Buchstaben ist aus der Erfahrung gewonnen, es beruht auf einem prinzipiellen Näherungsverfahren, und es verköpert eine bestimmte Konfiguration aus Symmetrie und Asymmetrie: Im Konzept des Buchstaben sind zwei symmetrische Aktivitäten investiert (das Vergleichen von Token sowie die Konsensbildung der Subjekte) um eine asymmetrische Relation zu erzeugen (die Type-Token-Relation). Für die Funktionalität des Buchstaben ist die asymmetrische Relation dominant.

Im Konstrukt des Buchstaben ist somit ist ein Grundverhältnis von Symmetrie und Asymmetrie verkörpert, das sich beim Aufbau der Mathematik immer wieder wiederholt. Zum Beispiel im asymmetrischen Verhältnis von Formel und Term in der Grammatik, oder in der Mengenlehre, die mit zwei binären Relationen arbeitet (Gleichheit und Epsilon), von denen die eine symmetrisch und die andere asymmetrisch ist, wobei aber nur die asymmetrische Relation eine strukturbildende Rolle hat.

Dieses Grundverhältnis von Symmetrie und Asymmetrie ist der Mathematik inhärent, und es prägt sich damit jeder physikalischen Theorie ein, die sich mathematisch artikuliert. Wir sehen hier eine Wirkung von der Schrifterfahrung auf die Naturerfahrung. Das ist so lange unproblematisch, wie die Naturerfahrung aus ihrer eigenen Dynamik heraus Entitäten hervorbringt, die ein ähnliches Grundverhältnis von Symmetrie und Asymmetrie verkörpern. Das scheint mir in der klassischen und speziell-relativistischen Physik weitgehend der Fall zu sein.

Hingegen hege ich den Verdacht, dass die mikrophysikalische Erfahrung eine symmetrische Komponente in die Subjekt-Objekt-Relation hineinbringt. Darüber sind wir beiden uns noch nicht einig, aber lassen wir es für den Moment mal als Annahme stehen. Das würde bedeuten, dass die mathematische Erfahrung im Umgang mit Schrift uns nur unzulänglich darauf vorbereitet, mikrophysikalische Erfahrung strukturell aufzubereiten und zu verschriftlichen. Oder anders gesagt: die Mathematik könnte hier mehr tun. Sie könnte zum Beispiel nach basalen schriftartigen Artefakten Ausschau halten, die - anders als der Buchstabe - eine innere Struktur haben, in welcher der Symmetrieaspekt dominant ist, oder doch wenigstens nicht vollständig unterdrückt ist.

Faktisch haben wir gelernt, mikrophysikalische Erfahrung mathematisch auszudrücken. Wir haben insbesondere gelernt, die symmetrischen Aspekte der Subjekt-Objekt-Relation mathematisch auszudrücken. Die involutiven Operatoren, die in der Quantenphysik vorkommen, deute ich als diejenigen Operatoren, die den symmetrischen Aspekt der Subjekt-Objekt-Relation organisieren. Die komplexen Zahlen sind vermutlich deshalb wesentlich, weil sie uns zwei voneinander unabhängige involutive Operatoren bereitstellen, Negation (x à -x) und Konjugation (x à x*).

Bei dieser Gelegenheit fällt mir Weizsäckers Komplementaritätslogik ein. Die elementare Aussage der Quantenphysik hat nach diesem Verständnis die Gestalt <x|y>, und der Wahrheitswert einer solchen Aussage ist ein Punkt im Innern oder am Rand des komplexen Einheitskreises. Damit wird der komplexe Einheitskreis an die Stelle gerückt, die in der klassischen Logik die beiden Wahrheitswerte innehaben. Was ist die Bedeutung der beiden Wahrheitswerte? Sie organisieren das Verhältnis zwischen Aussage und Sachverhalt (Übereinstimmung oder Nichtübereinstimmung), und in einem tieferen Sinne das Verhältnis zwischen Subjekt und Objekt.

Die Symmetrisierung des Subjekt-Objekt-Verhältnisses in der mikrophysikalischen Erfahrung zeigt sich also strukturell in dem Übergang von einem diskreten System aus zwei logischen Werten zu einem Kontinuum von logischen Werten mit einer zweidimensionalen geometrischen Struktur. Damit einher geht der Übergang von dem schlichten Negationsoperator zu einem gewissen Reichtum an logischen Operatoren: Zwei Spiegelungoperatoren und ein Kontinuum von Skalierungs- und Rotationsoperatoren.

Ein erstes Nahziel sehe ich darin, diese strukturellen Beobachtungen an die Erfahrung mit der Natur anzubinden, wobei ich natürlich wieder einmal auf Ihre Unterstützung angewiesen bin.

E-Mail Matzka an D, 26. 11. 2010

Betr.: Zielsetzung und Methodik

Nachdem ich meine letzte Nachricht an Sie noch einmal gelesen habe, scheint mir, dass ich immer noch nicht sehr gut erklärt habe, worauf ich eigentlich hinaus will. Meine Schwierigkeit in dieser Hinsicht liegt darin, dass ich selbst nur auf einer sehr abstrakten Ebene weiß, worauf ich hinaus will, und dass ich nur sehr langsam dahinter komme, was das konkret bedeutet. Im Folgenden will ich versuchen, die Konkretisierung ein wenig voranzutreiben. Ich erwarte nicht, dass Sie das alles lesen. Aber vielleicht kann ich bei unserem nächsten Gespräch auf die eine oder andere Textstelle Bezug nehmen, die wir dann gemeinsam anschauen können.

Wenn es so ist, dass in der Physik zwei Arten von Erfahrung zusammen kommen, nämlich Naturerfahrung und Schrifterfahrung, dann gehen beide Erfahrungsquellen in jede physikalische Aussage ein, insbesondere in jedes Naturgesetz. Ein Naturgesetz hat infolgedessen zwei Bedeutungskomponenten: es hat eine Bedeutung bezüglich der Naturerfahrung, und es hat eine Bedeutung bezüglich der Schrifterfahrung. Die Naturbedeutung eines Naturgesetzes ist das, was wir normalerweise mit dem Naturgesetz meinen; die Schriftbedeutung eines Naturgesetzes könnte man vielleicht auch seine kulturelle oder subjektive Bedeutung nennen, sie ist etwas, das wir normalerweise nicht wichtig nehmen und nicht explizieren. Mein Ziel ist es, die Schriftbedeutung oder kulturelle oder subjektive Bedeutung der Naturgesetze explizit offen zu legen. Im Fall der klassischen Naturgesetze scheint mir das nicht sehr interessant zu sein, im Fall der relativistischen Naturgesetze schon eher, und im Fall der quantenphysikalischen Naturgesetze auf jeden Fall sehr interessant.

Die Schriftbedeutung eines Naturgesetzes lässt sich nicht auf einfache Weise ermitteln oder aussprechen, weil sie vielschichtig ist. Das liegt daran, dass die mathematische Struktur, die einem Naturgesetz zugrunde liegt, in einem architektonischen Sinn vielschichtig ist. Eine mathematische Struktur besteht, metaphorisch gesprochen, aus mehreren Stockwerken; und jedes Mal wenn wir ein neues Stockwerk erfinden und konstruieren, oder auch wenn wir ein bereits bestehendes Stockwerk umbauen und neu ge­stalten, gehen in diesen Prozess sowohl objektive Naturerfahrungen als auch subjektive oder kulturelle oder schriftbedingte Kreationen und Entscheidungen ein. Normalerweise achten wir nicht auf diese Hintergrundmotive des Strukturaufbaus, ich glaube aber, dass wir mit dieser Nichtbeachtung die Interpretationsprobleme erzeugt haben, welche die Quantenphysik von Anfang an bis heute begleiten. Ich glaube auch, dass eine Offenlegung der kulturellen oder subjektiven oder schriftbedingten Motive uns helfen kann, den Zusammenhang zwischen Quantenphysik und Relativitätsphysik besser zu verstehen. Natürlich kann es leicht sein, dass ich mich irre, und dass diese Arbeit zu nichts Nützlichem führt. In diesem Fall hat es aber doch immerhin Spaß gemacht, darüber nachzudenken.

Ganz allgemein lassen sich die Schichten der Schriftstruktur physikalischer Aussagen wie folgt angeben:

6.   Dynamik (Naturgesetz)

5.   Kinematik oder Semantik

4.   Mathematische Axiomatik

3.   Logisches Regelwerk

2.   Grammatisches Regelwerk

1.   Semiotischer Prozess

Einen vergleichbaren Aufbau gibt es natürlich auch im Bereich der Naturerfahrung, nur ist er dort (wenigstens aus meiner Sicht) weniger überschaubar, vielleicht auch weniger gut reflektiert und dokumentiert. In der Mathematik hat der Prozess der Formalisierung und die metamathematische Reflexion auf die dabei erzeugten Formalstrukturen sehr zur Klärung der Tektonik beigetragen. Mein Plan ist nun, verschiedene „Physiken“ daraufhin zu untersuchen, wie der Prozess ihres Strukturaufbaus mit dem Prozess des mathematischen Strukturaufbaus verzahnt und verkoppelt ist, und zu fragen, ob dabei strukturbildende Motive ausfindig zu machen sind, die eindeutig nicht aus der Naturerfahrung, sondern aus der Schrifterfahrung stammen. Mein Hauptinteresse gilt dabei dem untersten Stockwerk, dem Fundament des mathematischen Gebäudes, dem semiotischen Prozess, der von der metamathematischen Reflexion bisher thematisch ausgeklammert wird.

Indem wir diesen Prozess aufgebaut und stabilisiert haben (d. h. indem unsere Kultur die Schrift erfunden und implementiert hat) haben wir ein bestimmtes Konzept von Identität konstruiert, mittels einer charakteristischen Konfiguration von doppelter innerer Symmetrie und einfacher äußerer Asymmetrie, auf die ich in Neversdorf eingegangen bin, und mit den charakteristischen Merkmalen der Einheit, Unterschiedenheit und Dauer. Normalerweise gehen wir mit der Schrift so um, als sei sie etwas Objektives, Gegebenes, jedenfalls etwas von Subjektivität Freies. Das ist aber nicht der Fall. Die Schrift ist ein kultureller Prozess, an dem wir ständig teilhaben, wenn wir lesen, schreiben, oder Mathematik betreiben. Wenn wir (als Kultur) eines Tages aufhören werden zu lesen und zu schreiben, wird auch unser Alphabet und unsere Schrift zu existieren aufhören. Dann wird auch dieses spezielle Identitätskonzept wieder aus der Wirklichkeit verschwinden, und mit ihm die Mathematik und die Physik.

Ich unterscheide zwischen primärer und sekundärer Identitätskonstruktion. Im Fall der Schrifterfahrung ist diese Unterscheidung klar und sauber: die Erfindung des Alphabets und der Zeichenreihe ist die primäre Identitätskonstruktion, alle auf dem Begriff der Zeichenreihe aufbauenden Identitätskonstruktionen sind sekundär. Primäre Identitätskonstruktion erzeugt Identität, ohne schon auf Identischem aufzusetzen. Sekundäre Identitätskonstruktion nutzt Identisches, um andere Identitäten zu erzeugen. Primäre Identitätskonstruktion findet also nur beim Aufbau des untersten Stockwerks des mathematischen Gebäudes statt. Mit Bezug auf die Naturerfahrung ist diese Unterscheidung zwischen primärer und sekundärer Identitätskonstruktion von vornherein weniger klar. Die Ergebnisse dieser Konstruktion, die identischen Komponenten der Erfahrung, werden auf Ebene 5 mit den mathematischen Ausdrücken explizit zusammengebracht. Auf dieser Ebene werden wir also ansetzen müssen, wenn wir – von der Mathematik herkommend – die primären Identitätskonstruktionen der Naturerfahrung rekonstruieren wollen.

Um den Prozess der primären Identitätskonstruktion im Bereich der Schrift deutlich zu machen, betrachte ich die Konstruktion des Buchstaben noch etwas genauer. Die Identität des Buchstaben ist durch seinen Type gegeben, und sie wird fundiert durch die transitiven Iterationen des symmetrischen Vergleichens von Tokens. Nun kann aber das Token nicht als völlig frei von Identität gedacht werden. Wenn ich z.B. die Gleichheit zweier Token prüfen will, dann müssen die betroffenen Token bereits Einheit und Unterschiedenheit aufweisen, sonst gibt es nichts zu vergleichen. Und wenn ich die Transitivität der Gleichheitsrelation prüfen will, muss ich A mit B, B mit C, und A mit C vergleichen, ich muss also jedes Token mindestens zweimal vergleichen, jedes Token muss also auch das Merkmal der Dauer aufweisen. Der Unterschied zwischen Token und Type liegt darin, dass die Identität des Token nur lokal gilt (nur für mich oder nur für eine bestimmte Situation oder nur für einen bestimmten Kontext), während die Identität des Type global in unserer Kultur gilt.

Wie wird nun die lokale Identität der Token konstruiert? Wenn ich ein A schreibe (mit der Hand), dann mache ich drei Striche, und dann beschließe ich, dass das Schreiben dieses Buchstaben hiermit abgeschlossen ist. Dieser Beschluss konstituiert (für mich) die Einheit des Tokens. Zugleich konstituiert er die Unterschiedenheit von dem Token, das ich als nächstes schreibe. Das Merkmal der Dauer wird durch das Material beigetragen, das ich zum Schreiben benutze, also etwa Papier und Bleistift. Wir nutzen das, was Weizsäcker die „Ständigkeit der Natur“ genannt hat, um die Token mit dem Merkmal der Dauer zu versehen. Die Token-Identität muss nur eine lokale und temporäre Identität sein, die gerade so weit trägt, dass sie als Fundament der Token-Type-Relation funktioniert, welche die globale Identität des Buchstaben erzeugt. Die Konstruktion der Identität eines Buchstaben ist also ein zweistufiger Prozess. Aus der Sicht des einzelnen Subjekts ist die Erzeugung der Token-Identität primär, die Erzeugung der Type-Identität sekundär. Aus der Sicht der Kultur ist die Erzeugung der Type-Identität primär.

Bevor ich auf die Physik eingehe, noch ein kurzer Blick auf die Dinge unseres Alltags. Hier gibt es eine enge Korrespondenz zwischen Schrifterfahrung und anderweitiger Erfahrung. Was bei der Schrift das Token ist, ist im Alltag das Einzelding. Ich sitze auf meinem Stuhl, vorhin stand ich dahinter und habe ihn gesehen, noch vorher habe ich ihn vom Fenster an den Schreibtisch gestellt, etc. Alle diese Erfahrungskomponenten zusammen sind für mich eine Möglichkeit und ein Anlass, ein Etwas zu konstruieren, das die lokalen Merkmale der Einheit, Unterschiedenheit und Dauer hat, und das ich „mein Stuhl“ nennen kann, und ich kann diese Konstruktion mit meiner Familie und mit meinen Gästen teilen. Mein Stuhl kann nun zum Gegenstand sekundärer Abstraktion werden, etwa zum Begriff des Stuhls. Wir haben gelernt, jene Dinge und Abstrakta mit gewissen Komponenten der Schrift in Beziehung zu setzen, mit Eigennamen, Eigenschaftsnamen, Relationsnamen etc. In diesem Zusammenhang haben wir grammatische Regeln für den Gebrauch von Schrift eingeführt, so dass wir auf kontrollierte Weise Zeichenreihen generieren können, die sich gut dafür eignen, mit anderweitigen Erfahrungskomponenten in einen Referenzzusammenhang gestellt zu werden. Wir benutzen Kalküle nach dem Prädikatenschema, um über Dinge und deren Eigenschaften und Relationen zu sprechen. Die Iteration der Begriffe führt zu Be­griffspyramiden, die Iteration der Relationen führt zu relationalen Strukturen, und all dieses kann entweder in einem höherstufigen Prädikatenkalkül oder im Kalkül der Mengenlehre verschriftlicht werden, der mit dem Prädikatenschema erster Stufe auskommt.

Ich will nun einige Teilgebiete der Physik kurz ansprechen, um anzudeuten, wo ich dort die interessantesten Punkte sehe, gewissermaßen als Landkarte für die weitere Arbeit. Als Erstes betrachte ich die Mechanik, so wie sie von einem isolierten Subjekt betrieben werden könnte (also bevor das Relativitätsprinzip ins Spiel kommt). Mit R3 als Modell für Raum und R als Modell für Zeit erhalten die kantischen Begriffe von Raum und Zeit (als Formen der äußeren bzw. inneren Anschauung) eine numerische Bestimmtheit. Hier kommen die Artefakte Maßstab und Uhr ins Spiel, mit denen wir Raum und Zeit vermessen. Diese Artefakte sind die Vermittler zwischen Naturerfahrung und Schrifterfahrung. In diesem Zusammenhang sind zwei Interpretationsfragen besonders interessant: Erstens die Frage nach der Interpretation des Koordinatenursprungs, und zweitens die Frage nach dem Verhältnis von Endlichkeit und Unendlichkeit.

Als Zweites betrachte ich die Mechanik unter Einbeziehung des Relativitätsprinzips und der Galileigruppe. Hier abstrahieren wir von dem Koordinatenursprung, wodurch aus dem Vektorraum ein affiner Raum wird. Das gilt für Raum und für Zeit, und es gilt für Raum und Zeit unabhängig voneinander. Die Galilei-Gruppe erzeugt eine Äquivalenzrelation zwischen Einzelsubjekten (die Relation der Umrechenbarkeit von Vorgangsbeschreibungen), diese ist symmetrisch und transitiv. Die Galileigruppe erzeugt auf diese Weise ein abstraktes (oder theoretisches) Subjekt der Physik, das nicht mehr an einem Raumpunkt und Zeitpunkt verortet ist (the view from nowhere). Das theoretische Subjekt hat keinen Körper, es kann daher nicht zwischen innerer und äußerer Anschauung unterscheiden. Dennoch besteht zwischen Raum und Zeit ein Sinn-Unterschied (oder kategorialer Unterschied), da der affine Raum und die affine Zeit unabhängig voneinander aus dem Kantischen Raum bzw. der Kantischen Zeit konstruiert werden konnten. Ich nenne diesen Prozess der Konstruktion des theoretischen Subjekts (und den damit verbundenen Aufbau einer affinen Raum-Zeit-Struktur) auch den Prozess der zweiten Objektivierung. Die erste Objektivierung ist die Herstellung von Konsens über die Identität der Dinge, sie spielt sich in Schicht 1 ab, die zweite Objektivierung spielt sich in Schicht 5 ab, in ihr ist eine wechselseitige räumliche und zeitliche Verortung der Subjekte investiert. Der Übergang von den empirischen Subjekten und der zwischen ihnen aufgebauten relationalen Raum-Zeit-Struktur zu einem theoretischen Subjekt mit einer affinen Raum-Zeit-Struktur ist gleichbedeutend mit einer Verdinglichung von Raum und Zeit.

Als Drittes betrachte ich die Physik der Lorentz-Poincaré-Gruppe. An die Stelle der Maßstäbe und der mechanischen Uhren treten nun Lichtstrahlen und Lichtuhren, und die empirisch feststellbare Konstanz der Lichtgeschwindigkeit zwingt uns, den Übergang vom Vektorraum zum affinen Raum für Raum und Zeit gemeinsam vorzunehmen. Dadurch geht die kantische Unterscheidung von Raum und Zeit als kategoriale Unterscheidung endgültig verloren, sie wird ersetzt durch eine Naturkonstante, die Raum und Zeit numerisch miteinander in Beziehung bringt. Was von dem kategorialen Unterschied übrig bleibt, ist eine strukturelle Asymmetrie in der Auswahl der relevanten Operatoren (die relevanten Operatoren verhalten sich gegenüber der einen Zeitdimension anders als gegenüber den drei Raumdimensionen). Mit der Bedeutung von Raum und Zeit ändert sich auch die Bedeutung aller anderen physikalischen Größen. Die strukturelle Ausdifferenzierung der Subjektivität, die Unterscheidung zwischen empirischem und theoretischem Subjekt, hat hier – anders als im Fall der Galilei-Gruppe – massive Folgen für die Struktur und Interpretation der Physik.

Als Viertes betrachte ich die nichtrelativistische Thermodynamik, von der ich leider nur sehr wenig verstehe. Hier scheint mir eine andere Ausdifferenzierung der Subjektivität eine Rolle zu spielen, nämlich die Unterscheidung zwischen einem theoretischen allwissenden Subjekt und einem empirischen Subjekt, das nur ganze Aggregate von Objekten vermessen kann. Der Zusammenhang zwischen Einzelobjekt und Aggregat wird durch stochastische Operatoren modelliert, und der Zusammenhang zwischen theoretischem Subjekt und empirischem Subjekt wird durch komplementäre statistische Operatoren organisiert. Der Begriff der Wahrscheinlichkeit ist hier also der zentrale Begriff, der das Verhältnis der beiden Subjektstandorte vermittelt. Deshalb scheint es mir vielversprechend zu sein, den Wahrscheinlichkeitsbegriff daraufhin zu untersuchen, welche Konfiguration von Symmetrie und Asymmetrie er aufweist. Auch das Verhältnis von Endlichkeit und Unendlichkeit muss an dieser Stelle neu reflektiert werden. Vielleicht sollten wir uns doch einmal gemeinsam die stochastischen Grenzwertbegriffe und die zugehörigen Gesetze der großen Zahlen ansehen.

Als Fünftes betrachte ich die (nichtrelativistische) Quantenphysik, und dort zunächst nur Experimente ohne Objekt-Objekt-Interaktion. Der Zufall kann jetzt nicht mehr durch eine Differenz des empirischen Subjekts zu einem allwissenden theoretischen Subjekt begründet werden, er ist den Quantenobjekten inhärent. Oder besser gesagt: der Zufall ist der speziellen Form von Subjekt-Objekt-Interaktion inhärent, welche die Empirie der Quantenphysik bestimmt. Wir bauen eine experimentelle Apparatur auf, dann erzeugen wir ein Objekt, das mit dieser Apparatur interagieren soll, z.B. einen Strahl von Quantenobjekten. In der Apparatur interagiert der Strahl zuerst mit einer Präparationsvorrichtung, die den Strahl modifiziert, dann mit dem Hauptteil der Apparatur, dann mit einer Messvorrichtung, die den Strahl vernichtet und Messergebnisse liefert.

Ein altes Interpretationsproblem der Quantenphysik liegt in dem Verhältnis zwischen dem einzelnen Quantenobjekt und dem Strahl von Quantenobjekten. Das Objekt, mit dem wir interagieren, ist eindeutig der Strahl. Nun enthält der Strahl durchaus Hinweise darauf, dass er aus einzelnen Objekten „besteht“: seine Interaktion mit unserem Detektorensystem stellt sich als eine diskrete (und unregelmäßige) Abfolge von Klick-Ereignissen dar. Wenn wir aber die Vorstellung, der Strahl bestehe aus einzelnen Objekten, ernst nehmen, geraten wir in Widerspruch mit dem empirischen Faktum der Interferenz.

Mir scheint, hier setzen kulturelle Reflexe ein, die wir in einer jahrtausendelangen Konditionierung durch den Gebrauch von Schrift erworben haben. Wir können das Quantenobjekt nicht anders als identisch denken. Das heißt, wir statten es mental mit den Merkmalen der Einheit, Unterschiedenheit und Dauer aus. Einheit und Unterschiedenheit mag durch die Einheit und Unterschiedenheit der Klick-Ereignisse gegeben sein, aber Quantenobjekte beweisen uns keineswegs regelmäßig, dass sie über das Merkmal der Dauer verfügen würden. Sehr oft ist der eine Klick überhaupt die einzige Interaktion, die wir mit einem individuellen Quantenobjekt je haben können. (Eine Frage an den Physiker: gibt es Beispiele für Experimente, bei denen wir nachweislich mehr als einmal mit ein und demselben Quantenobjekt interagieren?) Nach meinem Gefühl sollte man statt von Quantenobjekten lieber von Quantenereignissen (der Subjekt-Objekt-Interaktion) sprechen. Quantenereignisse haben keine Dauer und keine Eigenschaften: je zwei Quantenereignisse sind nur durch den Ort oder die Zeit ihres Auftretens unterschieden, im übrigen sind alle Quantenereignisse gleich. Es gibt keine verschiedenen „Klicks“.

Nach der Kopenhagener Interpretation macht die Quantenphysik keine Aussagen über Quantenobjekte, sondern sie macht nur Aussagen über [Quantenobjekte in Zusammenhang mit einem bestimmten experimentellen Aufbau]. Das ist aus meiner Sicht eine absolut korrekte Haltung zur Quantenphysik, vielleicht sogar die einzig vernünftige, aber sie bleibt insofern unbefriedigend, als die Frage „was bedeuten die Gesetze der Quantenphysik“ damit ins Reich der unbeantwortbaren Fragen verwiesen wird. Immerhin liefert die Quantenphysik sehr präzise und zuverlässige prognostische Algorithmen, und so sollte doch die Frage erlaubt sein, was diese Algorithmen bedeuten. Um in dieser Angelegenheit weiterzukommen, interessiere ich mich für die Symmetrie- und Asymmetrie-Eigenschaften der quantenphysikalischen Algorithmen. Wenn wir sie offengelegt haben, können wir nach den Sinnmotiven fragen, die hinter diesen Symmetrie- und Asymmetrie-Eigenschaften stecken.

In der Quantenphysik haben wir es vor allem mit zwei nichtklassischen Phänomenen zu tun: Stochastik und Interferenz. Beide Phänomene sind anscheinend untrennbar aneinander gekoppelt, so dass wir sie nicht separat diskutieren können. Leider verstehe ich die Stochastik noch nicht ganz, vor allem das Verhältnis zwischen Endlichkeit und Unendlichkeit ist mir noch unklar. Deshalb wäre mir daran gelegen, einen quantenphysikalischen Phänomenbereich zu isolieren, in dem wohl Interferenz, nicht aber Unendlichkeit auftritt, so dass wir den Interferenzbegriff unabhängig von Unendlichkeitsfragen klären könnten.

E-Mail Matzka an D, 8. 4. 2010

Betr.: Subjekt-Objekt-Schnitte in den verschiedenen Physiken

hier wieder eine kurze Zusammenfassung (und Weiterführung) unseres letzten Montagsgesprächs. Ich habe es mit einem Zitat von Luhmann eingeleitet: "Wenn die Welt sich selbst beobachten will, dann muss sie einen Schnitt legen zwischen dem, das beobachtet, und dem, das beobachtet wird." Damit spielt Luhmann natürlich auf den Begriff des Schnitts an, der in der quantenphysikalischen Messtheorie eine Rolle spielt. Nicht nur die Quantentheorie legt solche Schnitte, jede physikalische Theorie ist in einem solchen Schnitt begründet. Mich interessiert die Sequenz dieser Schnitte, die im Zuge der physikalischen Theorienfolge entstanden ist. Unser Dialog folgte ab da meinem Text "Zielsetzung und Methodik" vom 26. 11. des Vorjahres, Seite 3 unten.

Es macht einen Unterschied, ob solch ein Schnitt durch eine mathematische Struktur organisiert wird oder durch eine umgangssprachliche Struktur. Der prinzipielle Unterschied besteht darin, dass mathematische Strukturen jede Form von Selbstreferenz ausschließen müssen. Dadurch gerät das Subjekt einer mathematisch organisierten Subjekt-Objekt-Relation zwangsläufig in eine extramundane Position, es kann in seinem Objektbereich Natur nicht vorkommen. Luhmanns Soziologie wäre ein Beispiel für einen umgangssprachlich organisierten Schnitt, und speziell dieser ist in hohem Maß von Selbstreferenzen durchsetzt. Luhmann kommt in seiner Soziologie sehr wohl vor. Aber Luhmanns Soziologie ist weit weniger mächtig als die Physik, sie beruht nicht auf Wiederholbarkeit und Objektivierbarkeit, generiert keine Prognosen, erzeugt nicht die Möglichkeit von Kontrolle über ihr Objekt, die Gesellschaft, weder deterministisch noch stochastisch. Alles was sie vielleicht erzeugen kann, ist Einsicht in die Struktur unserer gesellschaftlichen Erfahrung.

Dem Text folgend haben wir zunächst die Ein-Personen-Physik besprochen, also die Physik, in der noch kein Relativitätsprinzip vorkommt. Wohl aber kommt hier schon Wiederholbarkeit und Objektivierbarkeit vor. Ich spreche in diesem Zusammenhang von der Ersten Objektivierung. Die Kategorien Raum und Zeit stehen hier noch vollständig in Einklang mit Kants Sinnbestimmung von Raum und Zeit als Formen der äußeren bzw. inneren Anschauung. Massepunkt und Kraftfeld sind die Akteure in jenem Schauspiel, für das Raum und Zeit die Bühne sind. Interessant finde ich die Frage nach der Wahl der Koordinatenursprünge für Raum und Zeit. Nehme ich als räumlichen Nullpunkt meinen Bauchnabel oder lieber einen willkürlich feszulegenden erdfesten Punkt? Nehme ich als zeitlichen Nullpunkt das Jetzt oder lieber ein willkürlich festzulegendes historisches Ereignis? Die Physik entscheidet sich in beiden Fällen für Letzteres. Dem Buddhisten würden die natürlichen Koordinatenursprünge näher liegen.

Das Relativitätsprinzip kommt ins Spiel, so bald zwei Subjekte ein und den selben Vorgang beobachten und beschreiben, mit der Frage, wie diese Beschreibungen miteinander zusammenhängen. Die Galilei-Gruppe gibt auf diese Frage eine universelle Antwort, als Übersetzungsalgorithmus für Vorgangsbeschreibungen, der dank seiner Gruppeneigenschaft symmetrisch und transitiv ist, so dass die Abstraktion von individuellen empirischen Subjekten der Physik zu einem einzigen theoretischen Subjekt der Physik möglich wird. Ich spreche in diesem Zusammenhang von der Zweiten Objektivierung. Der Schnitt zwischen Subjekt und Objekt der Physik wird hier stärker strukturiert, indem das Subjekt eine innere Struktur bekommt. Ein Zusammenspiel aus einem einzigen theoretischen Subjekt und vielen empirischen Subjekten, das durch Invarianz und Kovarianz bezüglich der Galilei-Gruppe gekennzeichnet ist.

Das Verhältnis zwischen dem einen abstrakten Subjekt und den vielen konkreten Subjekten ähnelt dem Verhältnis zwischen dem Type und dem Token eines Zeichens. Es ähnelt auch dem Verhältnis zwischen Allgemeinging (Universalie) und Einzelding. Wie sind diese Verhältnisse zu denken? Ist das Abstrakte primär und das Konkrete sekundär, was man platonisch nennen kann, oder ist das Konkrete primär und das Abstrakte sekundär, was man nominalistisch nennen kann? Platonismus vs. Nominalismus, ganz ähnlich gelagert ist auch der Gegensatz von Rationalismus und Empirismus. Sie haben mir an dieser Stelle ein empiristisches Vorurteil vorgehalten. In der Tat tendiere ich dazu, das Konkrete als primär und das abstrakte als Sekundär zu betrachten. Sie haben mich ertappt!

Die Buddhistische Philosophie schlägt den Weg der Mitte vor, bei Gotthard Günther findet man für derartige Situationen die Denkfigur des Chiasmus. Ein Chiasmus ist eine Relation, die zwischen zwei Polen besteht, sie ist selbst symmetrisch, und zugleich zerfällt sie in zwei gegenläufig asymmetrische Relationen. Platonismus und Nominalismus sind dann zwei Positionen, die durch verschiedene Symmetriebrüche entstanden sind, ausgehend von einer an sich symmetrischen Relationen zwischen Type und Token, Universalie und Einzelding, theoretischem Subjekt und empirischem Subjekt. Bei Universalie und Einzelding sowie bei theoretischem Subjekt und empirischem Subjekt kann man das Primat des abstrakten Pols durchaus vertreten, ebenso wie das Primat des konkreten Pols. Bei Type und Token von Buchstaben schiene mir jedoch ein Primat des abstrakten Pols allzu künstlich. Buchstaben wie "A" sind ganz eindeutig Artefakte, die von einer gewissen Willkür geprägt sind. Ganz anders als etwa Äpfel oder Zahlen oder Physiker, die man ganz gut auch platonisch denken kann.

Die Einführung der Galilei-Gruppe hat für die Physik keine strukturellen Konsequenzen, aber der Sinn von Raum und Zeit ändert sich. Am Standort des empirischen Subjekts sind Raum und Zeit noch kantisch motiviert, als Formen der äußeren bzw. inneren Anschauung, aber das theoretische Subjekt hat einen extramundanen Standort, es hat folglich keinen Körper, es kennt nicht den Unterschied von innerer und äußerer Anschauung. Der Sinn des Unterschieds von Raum und Zeit ist am abstrakten Ort nur als Erinnerung präsent, nicht als Erfahrung.

Mit dem Übergang von der Galilei-Gruppe zur Poincare-Gruppe ändert sich der Schnitt zwischen Physik und Natur, ändert sich auch die Struktur des inneren Zusammenhangs der physikalischen Subjektivität. Einstein musste die Begriffe von Raum und Zeit abwandeln, und dazu musste er auf die Prozesse der Messung von Raum und Zeit reflektieren. Das Lichtsignal wurde zum zentralen Medium der Messung oder Konstruktion von Raum und Zeit. Ereignis und Signal, das sind die operativen Grundbegriffe der relativistischen Physik. Raum und Zeit müssen von diesen Grundbegriffen her operativ erschlossen und theoretisch konstruiert werden. Damit ändern auch alle anderen physikalischen Begriffe ihren Sinn.

Nächtes mal wollten wir Thermodynamik und Quantenphysik mit ins Bild nehmen.

e-Mail Matzka an D, 13. 4. 11

Betr.: Zum Begriff des Schnitts

wenn es Ihnen recht ist, würde ich unser Gespräch gern auch im Modus der Schrift vorantreiben. Die Methode, einen Text von mir gemeinsam im Gespräch durchzugehen, hat sich bei unserem letzten Termin ja ganz gut bewährt.

Ich hatte die Idee des "Schnitts" eingeführt, ganz salopp, unter Bezugnahme auf ein Zitat von Luhmann, welches natürlich seinerseits eine Anspielung auf die Verwendung dieses Begriffs in der Quantenmesstheorie ist. Wir haben uns auch so weit verständigt, dass beim Übergang von einer physikalischen Theorie zu einer Nachfolgetheorie dieser "Schnitt" sich verändern kann. Speziell haben wir diskutiert, wie der Schnitt sich verändert beim Übergang von 1. einer nichtrelativistischen Physik zu 2. einer relativistischen Physik unter der Gültigkeit der Galileigruppe, und von dort zu 3. einer relativstischen Physik unter der Gültigkeit der Poincarégruppe. Am Ende unseres Gesprächs haben Sie explizit nachgefragt, wie der Schnitt sich beim Übergang von 2 nach 3 verändert hat, und wenn ich recht erinnere, hat meine Antwort auf diese Frage Sie nicht restlos befriedigt. Ich habe davon gesprochen, dass das Medium der Raumvermessung sich ändert, indem das Licht an die Stelle von Messhölzern tritt, und dass die Architektur des kategorialen Aufbaus sich verändert, indem jetzt Raum und Zeit nicht mehr operativ grundlegende Begriffe sind, sondern Ereignis und Signal sind jetzt die operativen Grundbegriffe, während Raum und Zeit daraus definitorisch abgeleitet werden müssen. Dabei ändert sich auch das kategoriale Verhältnis zwischen Raum und Zeit, es wird nun durch eine numerische Konstante vermittelt. Zugleich ändert sich der Sinn sämtlicher physikalischer Begriffe.

Um etwas mehr Klarheit in diese Frage zu bekommen, sollten wir versuchen, den Begriff des Schnitts klarer zu fassen. Nach meinem Verständnis ist ein Schnitt ein Ort, an dem Identität entsteht. In einem unserer Gespräche haben Sie gesagt: "Was Sie Identitätsbildung nennen, nenne ich Objektivierung". Mit dieser Gleichsetzung bin ich nur partiell einverstanden, und ich will als ersten Schritt versuchen, das Verhältnis von Identitätsbildung und Objektivierung  zu erhellen.

Meine eigene Klarheit in diesem Punkt speist sich aus der Beschränkung meiner wissenschaftlichen Aufmerksamkeit auf Schriftzeichen (eine Mathematikerkrankheit). Mit Bezug auf Schritzeichen liegen die Dinge besonders einfach, und wir werden zu diskutieren haben, ob und mit welchen Modifikationen meine Überlegungen sich auf physikalische Sachverhalte übertragen lassen. Ich erlaube mir an dieser Stelle, an meine Ausführungen in Neversdorf zu erinnern. Die Erfindung von Buchstaben involviert einen doppelten Abstraktionsprozess. Aufbauend auf unserer erstaunlichen Fähigkeit zu visuellem Gestaltvergleich lernen wir, Token zu vergleichen, die Gleichheitsrelation symmetrisch und transitiv werden zu lassen, und auf diese Weise Typen von Gestalten zu bilden. Zugleich mit dem Aufbau der Gestalttypen baut sich eine Subjektivität auf, ausgehend von Einzelsubjekten, die vergleichen und abstrahieren können, über Konsensbildung, die symmetrisch und transitiv gemacht werden kann, zu einem abstrakten Kollektivsubjekt, das gemeinsam über diese Vergleiche und Abstraktionen, also über die Zeichen, verfügt. Die Bildung der abstrakten Zeichenidentität und die Bildung des abstrakten zeichengebrauchenden Subjekts sind zwei ko-abhängige Prozesse. Das abstrakte Subjekt ist der Ort, an dem die Zeichentypen ihre objektive Existenz haben. Identitätsbildung und Objektivierung sind also nicht das selbe, sondern es sind zwei unterscheidbare, eng miteinander gekoppelte Prozesse.

Was für ein Schnitt ist mit diesem Doppelprozess beschrieben? Es ist der Schnitt zwischen dem Subjekt des Zeichengebrauchs einerseits und den Objekten des Zeichengebrauchs andererseits, also zwischen Schreiber und Leser einerseits und dem Alphabet und den Texten andererseits. Das Alphabet und die Texte haben eine objektive Existenzweise, obwohl ihre Existenz - als Artefakte - überwiegend in subjektiver Aktivität gegründet ist.

Versuchen wir nun, vor diesem Hintergrund, den Schnitt der nichtrelativistischen Physik (1) zu beschreiben. Da geht es nicht um Schriftzeichen, sondern um Massepunkte und um Kräfte, die in eine strukturelle Umgebung aus Raum und Zeit eingebettet sind. Meine Frage lautet nun: wie kommen all diese Elemente - Massepunkte, Kräfte, Raumpunkte, Zeitpunkte, zu ihrer Identität? Haben sie die von Natur aus, derart dass wir sie einfach so benutzen können? Das wäre der realistische oder platonische Standpunkt. Oder ist die Identität der Massepunkte, Kräfte, Raumpunkte, Zeitpunkte ein schieres Artefakt? Das wäre der konstruktivistische oder nominalistische Standpunkt. Ich glaube wir können uns im Sinne des mittleren Wegs darauf verständigen, dass der Prozess der Identitäsbildung sowohl Naturbeiträge als auch Subjektbeiträge benötigt. Die Frage nach dem Schnitt verstehe ich als die Frage nach diesem Prozess, in dem Natur und Subjektivität zusammenwirken bzw. sich voneinander lösen, und der die Entstehung von Identität und abstrakter Subjektivität (=Objektivität) als Ergebnis hat.

Wir müssen fragen: was bedeutet Identität für die Objekte der Physik? Für Zeichengebilde ist es klar, ihre Identität besteht in der Stabilität der abstrakten Types. Worin besteht die Identität eines physikalischen Objekts? Ich denke, wir können hier Identität mit numerischer Bestimmtheit gleichsetzen. Um zu sagen, was physikalische Identität ist, müssen wir also schon ein gehöriges Maß an Mathematik investieren, mindestens den geordneten Körper der rationalen Zahlen, vielleicht auch erweitert bis zu den reellen Zahlen, obwohl ich mit dieser Erweiterung eher vorsichtig umgehen würde. Auf der empirischen Seite werden hier die Überlegungen zur Protophysik relevant, also zu der Frage nach der handwerklichen Erschließung von Geraden, Flächen, Entfernungen, Winkeln und Zeiträumen.

Wagen wir uns also an die Kernfrage: Wie entsteht die Identität eines Massepunktes? Wie kommt ein Massepunkt zu numerischer Bestimmtheit? Er hat eine bestimmte Masse, und er befindet sich zu einer bestimmten Zeit an einem bestimmten Ort, sind wir geneigt zu sagen. Ist damit gemeint, er hat eine numerisch bestimmte Masse, Ort und Zeit? Wenn ja, dann bleibt uns nichts weiter zu tun, als diese Werte zu ermitteln. Der Massepunkt hat an sich eine Identität, eine numerische Bestimmtheit, und wir können sie messen, und damit kommen wir in den wissenden Besitz seiner Identität. Das wäre die realistische Position.

Damit sind jedoch die handwerklichen Bemühungen, die in der Protophysik beschrieben werden, vollständig ausgeblendet. Kulturell betrachtet kostet es uns viel Arbeit, handwerkliche und mathematische Arbeit, eine einigermaßen stabil vermessbare Umgebung von Raum und Zeit zu errichten, in der wir unsere Massepunkte eindeutig numerisch verorten können. Ohne diese Arbeit mag der Massepunkt zu einer bestimmten Zeit an einem bestimmten Ort sein, aber ohne diese Arbeit wären diese Bestimmtheiten keine numerischen Bestimmtheiten.

Damit bietet sich die folgende, etwas neutralere Beschreibung des Prozesses der Identitätsbildung und Objektivierung an. In unserer Erfahrung der Natur kommen Gegenstände vor, die sich in naheliegender Weise gedanklich zu Massepunkten idealisieren lassen. Zu einer solchen Idealisierung gehört, dass der daraus entstehende Massepunkt zu einer bestimmten Zeit an einem bestimmten Ort ist und eine bestimmte Masse hat. Wir investieren nun einige kulturelle Energie, um die theoretischen und praktischen Voraussetzungen dafür zu schaffen, dass diese drei Eigenschaften numerisch bestimmt werden können.

Damit ist die Rollenverteilung zwischen Natur und Subjektivität einigermaßen klar. Der Gegenstand kommt aus der Natur, die Idealisierung zum Massepunkt ist ein gedanklicher subjektiver Beitrag. Masse, Ort und Zeit sind als Bestimmte von der Natur gegeben und durch die Idealisierung fixiert, ihre numerische Bestimmung hingegen ist ein praktischer und gedanklicher Beitrag der Subjektivität. Ich bitte zu beachten, dass der letztere subjektive Beitrag auch den Prozess des Aufbaus der Zeichenidentitäten enthält, den ich eingangs beschrieben habe. Die Identität der physikalischen Objekte ist ohne die Identität der Zeichen nicht konstruierbar.

So viel für heute. Damit ist zwar die Ausgangsfrage nach dem Übergang von Physik 2 zu Physik 3 immer noch offen, aber es sind doch einige Vorarbeiten geleistet, die uns helfen können, sie zu klären.