Schon im Altertum sinnierten Philosophen darüber, ob die Teilbarkeit von Materie nicht begrenzt sein könnte. Es dauerte Jahrtausende, bis die Chemie einen ersten Schritt in diese Richtung mit dem atomaren Aufbau der Materie (Periodensystem der Elemente) endlich realisierte. Bis zur Entdeckung der Welt der Elementarteilchen dauerte es dann nur noch wenige Jahrhunderte.
Im Jahre 1900 begründete Planck schließlich die Quantentheorie und kurz darauf Einstein die Relativität von Raum und Zeit. Plötzlich stand der Verdacht im Raume, dass sich auch Einsteins Raumzeit aus kleinsten „Dynamik-Teilchen“ (Quanten) zusammensetzen könnte. Prinzipiell sprach nichts dagegen; doch die Physik sieht sich nach 100 Jahren noch immer außerstande, diese Vermutung auch im Experiment nachzuweisen. (Die Raumzeit-Einheiten sind, falls existent, für derzeitige Messapparaturen schlicht zu klein.)
Parallel dazu erwies sich die Frage nach dem Leben und, in deren Folge, die Frage nach dem menschlichen Geist als schwer stemmbarer Brocken. Dem Leben näherte man sich mühevoll. Markante Etappen waren Darwins Evolutionstheorie und die Entschlüsselung der DNA. Auch, was die Wirkungsweise der Sinnesorgane von Tier und Mensch anbelangt, kam man im Detail nur schleppend voran.
Für das Gebiet des Geistes, für die Übertragung der Sinneseindrücke ins Gehirn und für ihre Abspeicherung und Verwaltung dort hat man zwar vage Ideen – eine durchgreifende Lösung des Problems liegt nach heutigem Verständnis der Dinge jedoch noch in ferner Zukunft. Solange wird es das Betätigungsfeld für unausgegorene Hypothesen und dunkle Verschwörungstheorien bleiben. Gleiches gilt erst recht für die Details einer Entschlüsselung der Gehirnfunktionen.
Das große Handicap auf diesem Wege – so paradox dies auch klingen mag – liegt gerade im technischen Fortschritt der letzten 3 Jahrhunderte. Dieser war geprägt vom mechanistischen Weltbild der Natur; die Künstliche Intelligenz (KI) ist es noch heute. Alles unterlag einer kausalen Betrachtungsweise, die man bis auf die kleinsten und größten Strukturen unseres Universums extrapolieren zu können glaubte (Begriffsbildungen: Infinitesimalrechnung in der Mathematik, Thermodynamik und minutiöse Bewegungsgleichungen in der Physik, Realität und Objektivität in der Philosophie).
Mit der Unvollständigkeit seiner Allgemeinen Relativitätstheorie (ART) ergänzte Einstein ein widersprüchliches Bild unseres Universums (Singularitäten!), in dem die Kosmische Expansion unabhängig vom Geschehen innerhalb der jeweiligen Oberfläche einer Blase sein sollte (veranschaulicht durch die Haut eines sich aufblasenden Luftballons), auf die sich – seiner Meinung nach (Dimension = 4) – „die Welt, in der wir leben“ zu beschränken habe. Direkte Diskrepanzen aus derartigen Vorstellungen waren Überlichtgeschwindigkeiten (in Schwarzen Löchern und bei der Kosmischen Inflation), die dann halt auf eine Welt außerhalb dieser Blase (d.h. ihres Anwendungsbereiches) hinausgeschoben wurden, wo sie niemanden störten.
Den inopportun gewordenen Äther ersetzte Einstein durch einen expandierenden Raum jenseits des Geltungsbereiches der für uns zuständigen physikalischen Gesetze (Entkoppelung der physikalischen Dynamik von einer sich überlagernden, unphysikalischen Zusatzdynamik (Raumexpansion, Kosmische Inflation), in die hinein alles abgeschoben wurde, was unseren Gesetzen der Physik widersprach).
Auf Unverträglichkeiten ganz ähnlichen Ursprungs stieß bei der Behandlung von Elementarteilchen dann auch Feynman mit seinen virtuellen Massen. Feynmans Graphen-Logik widerspricht Einsteins Äquivalenzprinzip auf das Gröbste, konnte aber dennoch in Teilen experimentell verifiziert werden (Quanten-Elektrodynamik, physikalische Existenz von Teilchen-„Resonanzen“).
Analog verhaspelte sich die Philosophie mit ihren Definitionen von Subjektivität und Objektivität. Sie postulierte einen idealen Realitätsbegriff, der mit dem physikalischen Begriff der Messbarkeit kollidierte. Geflissentlich übersah sie, dass ein Ideal als Limes unerreichbar und somit auch nicht sauber und abschließend überprüfbar ist.
Ihre „Objektivität“ beruhte auf subjektiven Statistiken und willkürlichen Festlegungen privilegierter Einzelpersonen; ihre „Objektivität“ resultierte als abhängige Funktion letztendlich also aus der Gruppendynamik ausgewählter Einzelpersonen und aus deren subjektiver Sicht auf die Welt. Damit war Ihre „Realität“ irreal – eine Situation, die subjektive Anschauungen als objektive Realität zu verkaufen suchte.
Trotz ihres mitleidigen Hinabblickens auf die Philosophie hat sich die Theoretische Physik diese Eigenschaft dann aber selber zu eigen gemacht, je mehr sie einsah, mit der Vereinheitlichung von Einsteins Relativität mit Plancks Quanten zu einer beiden gerecht werdenden „Quantengravitation“ (QG) selber nicht zurande zu kommen.
Denn, hatte sich Einstein noch detailliert Gedanken darüber gemacht, wie die Messbarkeit mit einer kontinuierlichen Mechanik in Einklang zu bringen sei, so versagten diese Ideen bei der Diskretheit von Quanten. Diskrete Quanten lassen sich nicht einfach zu einem Kontinuum „verschmieren“. Die Vorzeichen „benachbarter“ Quanten können entgegengesetzt sein, ohne dazwischen einen Null-Durchgang zu machen; denn ein „Dazwischen“ existiert nicht.
Für kontinuierliche Kurven lässt sich ihre Glattheit durch das Stetigkeits-Postulat erzwingen. Einstein bewerkstelligte dies durch Nutzung der Differenzialgeometrie als mathematischer Grundlage. Diskret verstreute Quanten unterliegen anderen Prinzipien. Bei ihnen kommt es primär auf die Kombinatorik an, wie sie durch die Reihenfolge ihrer Faktoren ausgedrückt wird. Mathematisch wird jedes Quant durch 1 Vektor einheitlicher, fester Dimension dargestellt, und diese Vektoren werden zu Tensoren gebündelt (Tensor = Mehrfach-Vektor).
Der Mathematiker A. Young ordnete bereits im Jahre 1900 die Indexmenge eines Tensors zu einem 2-dimensionalen Kästchenmuster (Young-Tableau) mit gewissen Symmetrisierungs-Vorschriften an. (Zeilen sind linksbündig und Spalten von einer oberen Geraden ausgehend nach unten anzuordnen; ihre Längen dürfen variieren, aber keine Lücken aufweisen. Ihre Spaltenlänge darf die Anzahl der einheitlichen Vektor-Dimensionen nicht überschreiten; Zeilenlängen unterliegen keiner entsprechenden Einschränkung.)
Das Charakteristikum einer Kombinatorik ist die Abweichung des vertauschten Produktes bxa von seinem Original axb. Diese Differenz (axb – bxa) heißt in der Mathematik „Kommutator“ und wird durch ein Klammersymbol ausgedrückt: axb – bxa = [a,b]. (Youngs Vorschrift lautete nun ganz simpel: Alle Indizes in seinem Tableau sind erst innerhalb jeder Zeile zu symmetrisieren und anschließend (bzgl. ihrer Originalanordnung) innerhalb jeder Spalte zu antisymmetrisieren.) Quanten unterliegen also einer ganz anderen Mathematik als die uns aus der Schule geläufigen Zahlen, bei denen alle Kommutatoren stets = 0 sind!
Für mathematisch Unbedarfte – aber auch für manch einen klassischen Physiker – führen diese Kommutatoren ungleich null zu argen Irritationen. Man will schlicht nicht akzeptieren, dass Quanten keine Zahlen sind, sondern sich wie Aktionen, also Handlungsabläufe verhalten. Die Handlung a = „Frage Herrn X nach dem Weg“ und b = „Erschieße ihn“ zeitigt halt ein anderes Ergebnis als die umgekehrte Reihenfolge beider Aktionen.
Die von Einstein benutzte Mathematik reiner Zahlen ist auf Quantensysteme also nicht ohne drastische Änderungen anwendbar. Dies ist die Crux der „Neuen Physik“, auf die die Quantengravitation [1] aufsetzt und die die moderne Kosmologie in ihrer starren Fixierung auf Einstein bis heute weder begriffen hat noch wahrhaben will.
Die flache Erde mit den Sternen als Gucklöchern durch das Himmelszelt ins lichtdurchflutete Gottesreich dahinter – dann abgelöst vom geozentrischen Weltbild (Sonne und Sterne drehen sich um die Erde) – sind uns aus der jüngeren Vergangenheit noch geläufig. Sie beruhen auf der Ignoranz der intellektuellen Redlichkeit, dass Behauptungen auch einer belastbaren Überprüfbarkeit standhalten und frei von inneren Widersprüchen sein sollten. Vorher sind es halt nur Vermutungen, Ansätze, Hypothesen, Modelle.
Für die Naturwissenschaften gilt heute deshalb ganz rigoros das Prinzip der Reproduzierbarkeit: Was sich – in welchem Sinne auch immer – nicht reproduzieren lässt, ist nicht Gegenstand einer Naturwissenschaft. Damit bleiben Religionen mit ihrer Vielzahl unbelegbarer Behauptungen und logischer Widersprüche außen vor. Physik ist die „Mutter“ aller Naturwissenschaften. Historisch zeigte sich, dass eine Naturwissenschaft nach der anderen als bloßes Teilgebiet der Physik aufgefasst werden darf.
Zur Überprüfung einer Reproduzierbarkeit benutzt eine Naturwissenschaft i.A. die mathematische Logik. Qualitative Logik und quantitative Mathematik sind Teilgebiete der Philosophie. Naturwissenschaften könnten wir auch als „Natur-Philosophien“ bezeichnen.
Anders als bei der Mathematik tritt bei den Naturwissenschaften jedoch noch ein menschlicher Aspekt hinzu: Die Lebenszeit eines Menschen ist endlich, und auch sein Körper hat endliche Ausmaße. Damit kann ein Mensch auch nur endlich weit zählen. Physikalische Messungen beruhen letztendlich auf dem Ablesen von Skalen. Damit gilt auch für physikalisch reproduzierbare Messergebnisse das Endlichkeitsprinzip: Unendlichkeiten sind grundsätzlich unphysikalisch! Gleiches gilt für den hochgepriesenen „Freien Willen“; den gibt es halt nicht [1, Kapitel 1].
Die mathematische Logik kennt darüber hinaus auch Limes-Bildungen. Solch ein Limes setzt aber eine Unendlichkeit voraus, über die nach irgendeinem willkürlichen Ansatz extrapoliert wird. Diese Willkür widerspricht aber der (eindeutigen) Reproduzierbarkeit; folglich ist auch sie unphysikalisch.
Die letzten 3 Jahrhunderte waren – aus philosophischer Sicht – der Analyse jener Limes-Betrachtungen gewidmet. So nimmt es nicht Wunder, dass diese auch – und zwar recht erfolgreich – Einzug in das naturwissenschaftliche Denken gehalten haben. Die mathematische Infinitesimal-Rechnung gestattete es z.B., mechanische Prozesse (Lösungen von Bewegungsgleichungen) einfacher zu beschreiben.
Mathematisch vernebelt dies jedoch das logische Faktum, dass die so erzeugten Differenziale (der Ausdehnung null) zu ihrer Aufintegration (unendlich vieler Summanden) willkürlich hinzugefügte Stetigkeitsbedingungen (für das Verhalten zwischen 2 Summanden) zu befriedigen haben, die keineswegs a priori erfüllt sein müssen! (Die Mathematik benutzt hier die fatale Logik „Null mal unendlich = endlich“.)
Für solch eine „kontinuierliche“ Messung einer Länge impliziert die Anwendung der Differenzialrechnung demnach notwendigerweise, dass der Beitrag eines jeden Summanden einzeln (im Limes) gleich null sein muss. Damit schließt die Anwendung der Differenzialrechnung automatisch die Existenz atomistischer Modelle aus, bei denen das „Quant“ physikalisch der Träger einer endlichen Information ist. (Ihre Summation ergäbe stets unendlich.)
Die Infinitesimalrechnung kann demnach allenfalls eine geglättete Näherung beschreiben. Zum logischen „Verständnis“ der Physik dahinter ist sie also höchst ungeeignet! Einsteins ART und die auf Feynman aufsetzenden Grundlagenmodelle der Teilchenphysik gehen mit ihrem Hamilton-Lagrange-Formalismus an der zugrunde liegenden Physik vorbei. Erst die Quantengravitation (QG) kann mit ihrer atomistischen Beschreibung und der Elimination des Freien Willens realistischeren Modellen jenseits der klassischen Physik gerecht werden.
Für die Philosophie bedeutet diese Abkehr von der infinitesimalen Sichtweise auf die Natur auch die Abkehr von der Betrachtung der Natur als Ergebnis eines abstrakten Bitmusters aus der Informatik, von dem kein Mensch sagen kann, wie sich deren immaterielle Bits wohl auf die physikalische Welt durchdrücken könnten.
Dieser klassische Hamilton-Formalismus der Teilchenphysik lässt ferner auch nur 1 Zeitkoordinate zu. (Selbst die String-Brane-Modelle arbeiten mit nur 1 Zeit-, aber 10 Raum-Koordinaten!) Einstein arbeitete mit 3 reellen Raum-Dimensionen und 1 imaginären Zeit-Dimension (die er dann wahlweise mit Hilfe seiner Metrik auch reell umgestalten konnte).
Die QG [1] benutzt in ihrer primitivsten Ausbaustufe Diracs 4 komplexe Dimensionen als Basis für die Definition eines Fermions. Davon sind jedoch bereits 2 zeitartig („b-Spin“). Weitere 4 Dimensionen benutzt die QG für Diracs Antifermion. Die QG ist ein atomistisches Modell; ihre 4+4 = 8 Sorten von „Quanten“ sind die physikalischen Träger eines konkreten, materiellen Bitmusters, dessen Übertragung auf die tatsächliche Natur, wie sie uns begegnet – anders als bei obigen abstrakten, immateriellen Bitmustern – kein Problem mehr darstellt.
Einsteins Dynamik kennt 3 reelle Raum-Dimensionen und 1 imaginäre Zeit-Dimension. Mathematiker kennzeichnen diese Geometrie als „SO(1,3)“ (SO = speziell-orthogonal); für Physiker liefert sie die „Spezielle Relativitätstheorie“. 1916 gelang es Einstein, in seine SO(1,3) durch „Verknautschen“ dieser Struktur (Einführung einer zusätzlichen „Metrik“) auch noch die Gravitation mit einzubeziehen: Mit seiner „Allgemeinen Relativitätstheorie“ (ART) gelang es ihm damit erstmalig, eine Wechselwirkung (die Kraft der Gravitation) als rein geometrische Eigenschaft seiner Raumzeit zu deuten. Mit seinem nachfolgenden Versuch, dies auch auf den Elektromagnetismus, einer sog. „internen“ Kraft, auszuweiten, scheiterte er allerdings.
Der Grund seines Scheiterns war, dass er sich bei der Aufstellung seiner ART nicht um das Schicksal seiner zugrunde liegenden SO(1,3) gekümmert hatte. (Einsteins vager Stress-Tensor erfüllt bei weitem nicht die Präzision seines Ricci-Tensors!) Dirac zeigte (mit seiner „Dirac-Algebra“), dass sich diese SO(1,3) dabei zu einer „Konformen Gruppe“ SO(2,4) erweiterte: D.h. Einstein hatte bei der Erstellung seiner ART glatt 2 Dimensionen übersehen (die mit den Nummern 4 and 6 [1, Kapitel 14]), diese also als konstant angesetzt! (In der Quantengravitation stellt die Kombination beider übrigens – als „Dilatation“ der Konformen Gruppe – gerade die schwere Masse dar!)
Dieser lückenhafte Ansatz basierte auf seinem Äquivalenzprinzip (träge Masse = schwere Masse), das somit hinfällig wurde; eine korrekte Anwendung liefert Zusatz-Terme. Feynmans „virtuelle Massen“ belegten dies für die Teilchenphysik ganz offenkundig – und die Kosmologie erfuhr die Folgen dieser ignorierten Zusatzterme bitterlich über ihre Singularitäten hinter dem Ereignishorizont eines Schwarzen Loches. Rein quantitativ zeigt sich diese Auslassung auch über die astronomisch entdeckte Dunkle Energie und Dunkle Materie, die experimentell gerade die Abweichung von Einsteins 4-dimensionaler ART gegenüber der QG (in ihrer 6-dimensionalen Ausprägung) und ihrer variablen Masse beurkunden [1, Kapitel 8, 14].
Mathematisch entsprechen den 6 (pseudo)orthogonalen Dimensionen dieser „konformen“ SO(2,4) gerade die 4 komplexen Dimensionen einer „speziell-unitären“ SU(2,2) bzw. ihrer „unitären“ Erweiterung zu einer U(2,2). In ihr existieren gleichviele (komplexe) Raum- und Zeit-Dimensionen. Das CPT-Theorem der Teilchenphysik vertauscht beide Sorten von Dimensionen miteinander.
Damit überführt es die U(2,2) von Fermionen in eine U(2,2) von Antifermionen (bzw. umgekehrt). Die Anzahl 4 „dynamischer“ Fermion-Dimensionen einer U(2,2) verdoppelt es damit formal auf die 8 Dimensionen einer U(4,4) für beliebige Teilchen (Erweiterung reelle => komplexe Lie-Algebra). Für die Kosmologie, lässt sich zeigen [1, Kapitel 19], entspricht diese Grenze zwischen Teilchen und Antiteilchen gerade dem Ereignishorizont, der ein Schwarzes Loch vom uns zugänglichen Teil des Universums abtrennt.
Man könnte sich fragen, wieso die Dynamik in unserem Universum gerade 8-dimensional sein soll. Hier kommt die Evolution des Menschen ins Spiel. Kapitel 12 zeigt, dass der Mensch Raum und Zeit in ihrer „Strahl“-Darstellung wahrnimmt; die Division von Quanten spielt also eine Rolle. Nun zeigt uns die Mathematik der Zahlentheorie (Schlagwort „Oktonionen“), dass
Verlag: BookRix GmbH & Co. KG
Übersetzung: Dies ist das deutsche Original zum englischen e-book “Philosophy of Quanta – Tensor model varying observer positions“, bookRix, München (2021),
Tag der Veröffentlichung: 02.01.2021
ISBN: 978-3-7487-7019-0
Alle Rechte vorbehalten