Cover

Verstand vs. Dogmen

Menschen meinen, sich gegenüber anderen organisierten Zellhaufen durch ihren Verstand auszuzeichnen.

Als Teil der Natur versucht der Mensch, sich über seine Sinneseindrücke ein Abbild seiner Einbettung in die ihn umgebende Natur zu verschaffen. Die Fülle seiner jeweiligen Abbilder verdichtet sich im Laufe seiner Existenz zu seinem individuellen Weltbild. Es besteht aus Erinnerungen an Ereignisfolgen, die sich allmählich zu Ereignismustern der Art „wenn … dann …“ verdichten. Die Menge seiner angesammelten Ereignisfolgen bilden – teils auch in abstrahierter oder verfälschter Form – das Gerüst seines Verstandes, an dem sich seine Verhaltensweise orientiert.

Sein Verhalten basiert zunehmend auf der Erfahrung vorangegangener Ereignisabläufe, wie sie ihm sein Gehirn in priorisierten Folgemustern abgespeichert hat und als Erfahrung zur Verfügung stellt. „Erfahrung“ gründet sich auf Reproduzierbarkeit.

Folgerichtig basieren die Naturwissenschaften per Definition auf reproduzierbaren Verhaltensmustern, wohingegen sich Theologien i.W. auf nicht reproduzierbare „Wunder“ zu stützen pflegen:

 

 

Die Reproduzierbarkeit von Ablaufmustern kann an der Kompliziertheit der Zusammenstellung ihrer Details scheitern – das wäre eine Art des Scheiterns aus Statistikgründen (zu viele Möglichkeiten zum Durchprobieren) – oder sie sind prinzipieller Natur. Zu letzterer wäre auch das zu rechnen, was wir landläufig als Resultat eines „freien Willens“ zu subsumieren pflegen.

Während ein naturwissenschaftlich erklärbarer Ablauf noch als zwangsläufig anzusehen ist, verbinden wir mit einer Entscheidung aus freiem Willen eine persönliche Verantwortung nach Kategorien einer Moral: Handlungen werden als „gut“ oder „böse“ beurteilt, je nachdem ob sie dem „Gemein“-Wohl dienen oder schaden.

Mit der Schwammigkeit des Begriffes „Gemeinwohl“ stehen dem Missbrauch von Begriffen wie „gut“ und „böse“ historisch gesehen wie gegenwärtig Tür und Tor weit offen. So schränken im historischen Kontext interessierte „Eliten“ das „Gemein“-Wohl immer wieder gern auf ihr eigenes, subjektives Gruppenwohl ein. Zwecks Verschleierung schiebt man die Verantwortung für solch ein korruptes Verhalten im täglichen Leben gern auf vermeintliche Anweisungen höherer Instanzen ab.

Fehlt eine solche „Instanz“, so erfindet man halt irgendeine. In vorgeschichtlichen Zeiten entwickelten sich dergestalt über uns neckende Kobolde (man vergleiche etwa die burmesischen „Nats“) eine Welt aus Göttern, denen man alles Unerklärliche in die Schuhe schieben konnte. Speziell die geistigen Clanchefs bedienten sich in ihrer Rolle als Schamanen gern dieser bequemen Methode.

Diese Art einer bevormundenden Arroganz des Stärkeren bzw. des Gerisseneren kennen wir nur allzu gut aus überlieferten Exzessen wie Inquisition, Kali-Kult oder Djihadismus, kurz: eines Fanatismus, von dem wir uns – als den Riten eines dunklen Mittelalters vor der Aufklärung – nur allzu gern distanzieren möchten.

Andererseits wird jedoch noch in der angeblich so sachlichen Gegenwart das Scheitern einer Reproduzierbarkeit aus statistischen Gründen infolge persönlicher Unzulänglichkeiten unzulässigerweise auch gern als ein prinzipielles Scheitern verkauft, sofern jene Fehlinterpretation gerade gut in den jeweils temporär herrschenden Zeitgeist passt. Unzulänglich wäre etwa die willkürliche Einschränkung der Allgemeinheit allgemeiner formulierter Thesen.

Es sind diese gut gemeinten Dogmen, geboren aus der Arroganz vorauseilenden Gehorsams an den gerade herrschenden Mainstream, die den Fortschritt der Wissenschaft häufig auf Jahrzehnte, wenn nicht auf Jahrhunderte hinaus hintertreiben („Strings“ etwa).

Medizinische wie naturwissenschaftliche Erkenntnisse weisen inzwischen zunehmend in die Richtung, dass jener „Verstand“ lediglich als (noch nicht vollends geklärte) Funktionsweise einer Art „Software“ („Seele“) seiner zugrunde liegenden physikalischen „Hardware“ („Körper“) anzusehen sei und dass er ohne diese Substanz an „Hardware“ keinen unabhängigen Bestand hätte:

 

 

Zwecks Aufrechterhaltung historisch gewachsener Vorurteile – seien sie religiöser Natur („gut“ und „böse“) oder allgemein dogmatischer Natur (Herrschafts-„Wissen“) – wird noch heute die Mär eines angeblich „freien Willens“ gepflegt und damit der Fortschritt physikalischer Grundlagenforschung massiv behindert.

Insofern scheint eine Forschung auf der naturwissenschaftlichen Basis, die sich nur eindeutig reproduzierbarer Ereignisse bedient, aber dennoch Statistikeffekte zuzulassen hat, auf der sicheren Seite zu liegen, wenn sie definiert:

 

 

Ziel der naturwissenschaftlichen Grundlagenforschung ist es, alle Naturwissenschaften letztendlich auf die Physik zurückzuführen – so wie es für die Chemie bereits erfolgreich gelungen ist.

Nun plagt schon die Physik selber der Zwiespalt zwischen einfachen, atomistischen Aussagen auf der einen Seite und oft hoffnungslos komplizierten, statistischen Effekten, wie sie sich aus Ansammlungen sehr vieler komplexer Einzeldaten kumulativ ergeben, auf der anderen Seite. Die klassische Kontinuumsphysik verkleistert beides miteinander. Außer in den Quantentheorien ist es der Physik bisher stets gelungen, Kontinua auf ihre atomistischen Bestandteile zurückzuführen. Kontinuierliche Betrachtungsweisen sind dann nach dem „Gesetz der großen Zahl“ als künstlich verstetigte Interpolationen einer Vielzahl von Einzeleffekten zu interpretieren – Themenkreise: Emergenz (s.u.) und Messprozess, (s. Folgekapitel).

So lässt sich bei der Messgenauigkeit hervorragend streiten, ob ihre Grenzen rein statistischer Natur oder prinzipieller, nicht behebbarer Natur seien. Die Geschichte der Physik belehrte uns – bis eben auf jenen Spezialfall Quantentheorie – bisher stets dahingehend, dass es sich um behebbare, reine Statistikeffekte handelte.

Die scheinbare Stetigkeit („Kontinuität“) entlarvte sich mit dem Fortschreiten der Technik stets als eine temporäre Unzulänglichkeit, benachbarte Details bei extrem großen Zahlenwerten noch sauber voneinander trennen zu können. Demzufolge wurden mit Brachialgewalt vorschnell Annahmen fixiert, die die vorgefundenen Resultate zwar temporär grob wiedergaben, aber einer späteren, genaueren Überprüfung nicht standhielten.

Genau dies ist momentan noch bei Schrödingers Wellenmechanik der Fall. Eine zu Dogmatisierung neigende Gesellschaftsschicht in den Chefetagen physikalischer Institutionen, die derzeit noch das Sagen in der „Forschung“ für sich reklamiert, versucht, den Gordischen Knoten einer zumindest offiziell noch nicht entdeckten „Quantengravitation“ mit der grob falschen Behauptung zu „durchschlagen“, Quantentheorien und die Allgemeine Relativitätstheorie stünden – siehe Bells No-Go-Theorem – im Widerspruch zueinander.

„Nach Bell“ existieren in Quantentheorien keine „Verborgenen Parameter“, die es erlauben würden, Schrödingers Wellenstatistik auf die Standardstatistik derartiger „Verborgener Parameter“ zurückzuführen. Eine total „Neue Physik“ müsse also her, heißt es. Man postuliert somit das Festschreiben einer asymptotischen Beschreibungsweise, wo eben gerade eine Auflösung dieser Asymptotik in detaillierte Substrukturen das Erfordernis der Zeit wäre! (Vgl. Einsteins vergebliche Mahnung: „Gott würfelt nicht“.)

Nun, Bell selber hatte bereits 1985 im Rahmen eines BBC-Interviews darauf hingewiesen, dass seine No-Go-Aussagen auf der stillschweigend vorausgesetzten Existenz eines freien Willens beruhten:

 

 

Jene „Neue Physik“ bestünde also – abgesehen von der Behebung einer Fülle mathematischer Inkonsistenzen in den Feldtheorien, die sich im Laufe des letzten Jahrhunderts dort eingeschlichen haben [1] – in der Einführung jener „Verborgenen Parameter“!

Wenn wir die mit diesen verborgenen Parametern verbundenen „atomaren“ physikalischen Substrukturen einfach als „Quanten“ bezeichnen, folgt:

 

 

Sie erst gestatten die konsistente Vereinheitlichung von Plancks Quanten mit Einsteins (Allgemeiner) Relativität zu einer gemeinsamen, einheitlichen „Quantengravitation“ [1]! Physikalisch bedeutet dies die strikte Einhaltung der Forderung nach Reproduzierbarkeit – die die klassische Annahme der Existenz eines freien Willens ausschließt. (Sonst wäre er halt nicht „frei“.)

Dieser Ausschluss eines „freien Willens“, d.h. das Ernst-Nehmen des naturwissenschaftlichen Grundprinzips der Reproduzierbarkeit, beseitigt bereits das Gros aller Ungereimtheiten aus den derzeitigen Quantentheorien. So fordert jene Substruktur einer untergeordneten Schicht aus „Quanten“ z.B. die logische

 

 

Der Valenzteil liefert die bisher geläufigen diskreten Quantenzahlen (also die mathematischen „Indizes“ der Feldtheorien wie Spin, Ladung, Leptonenzahl usw.), während der Nichtvalenzteil [1] die bisher als „kontinuierlich“ betrachteten Quantenzahlen (d.h. die mathematischen „Argumente“ der Feldtheorien wie Ort, Zeit, Impuls, Masse u.ä.) als Überlagerungseffekte sehr vieler Quanten in statistischer Näherung zu reproduzieren hat. Letztere, lediglich zum Schein kontinuierlichen „Argumente“ aus einer statistisch näherungsweisen Betrachtungsweise heraus (Gesetz der großen Zahlen) heißen in der Literatur „emergente“ Parameter (lateinisch: emergere = [neu] auftauchen).

Die Zusammensetzung eines Teilchens aus sehr vielen „Quanten“ erklärt dann beispielshalber auch die Ergebnisse von Doppelspaltexperimenten – wieso ein einzelnes Teilchen bei fortlaufender Wiederholung des Experimentes in der Lage ist, hinter dem Spalt ein Interferenzmuster zu erzeugen. Absolut unerklärlich gemäß den bisherigen Quantentheorien! Doch nicht die kompletten Teilchen, sondern deren einzelne Quanten laufen offensichtlich durch unterschiedliche Spalts, bevor sie sich wieder zu einem kompakten Teilchen, wie wir es messtechnisch identifizieren, zusammenfinden!

Nach dem Ausschluss eines „freien Willens“ bedeutet Bells „Superdeterminismus“, dass die gesamte Struktur unserer Welt ein für alle Mal eindeutig festgelegt vorliegt – ohne jede Variationsmöglichkeit. Trivialerweise löst dies auch das berühmte Paradoxon um Schrödingers Katze (ist sie nun – in Abhängigkeit von einem radioaktiven Zerfallsprozess – tot oder lebendig). Und in der Kosmologie dürfte dies die Diskussion um die Grundlagen neu anfachen, auf deren Basis sich die „kosmische Inflation" [1] stützt.

Bei strikter Befolgung der Reproduzierbarkeit entpuppt sich dergestalt eine angeblich „unerklärliche Besonderheit“ der Quantenwelt nach der anderen als primitive Standardphysik. Auch die Quantentheorien „kochen nur mit Wasser“! Es gilt lediglich, die Finger endlich von jenen elenden, elitären Dogmen zu lassen: Religion hat in der Physik nichts verloren! Was uns bisher noch fehlt, das ist der mutige Schritt vorwärts zu einer „Aufklärung 2.0“, die jene unsäglichen Dogmen hinwegfegt.

 

Raum und Zeit

Der Grund für die so heftige Reaktion auf Einsteins Relativitätstheorien war der philosophisch brisante Umstand, dass die seit Menschengedenken unangefochten als gültig betrachtete Unabhängigkeit von Raum und Zeit auf einmal aufgehoben wurde: Einstein hatte gezeigt, dass sich beide – vom Prinzip her jedenfalls – ineinander umwandeln ließen. Als Schranke dieser Umwandlungsfähigkeit hatte er die Größe der Lichtgeschwindigkeit im Vakuum gefunden.

Nun gilt die Relativitätstheorie nicht nur zwischen Raum und Zeit, sondern beispielsweise auch zwischen Energie und Impuls, wo bis heute die Existenz einer Masse ein philosophisch ungeklärtes Rätsel blieb, das erst eine künftige Quantengravitation lösen solle. Umständlich erwies sich auch das Verhältnis zwischen Elektrizität und Magnetismus, wo erst Einsteins Einführung des Photons als damals neues Elementarteilchen für mehr Klarheit sorgte.

Die Identifikation der Zeit, gewissermaßen als eine Art 4. Dimension zu den 3 Dimensionen des Raumes, verbarg noch einen besonderen Aspekt: Die klassische Physik basierte, mathematisch betrachtet, i.W. noch auf der 1-dimensionalen Funktionentheorie vorausgegangener Epochen. Die 3 Dimensionen des Raumes waren dann nur recht zögerlich zu den 3-Tupeln einer Vektorrechnung zusammengefasst worden. Die zugehörige Matrizenrechnung in 3 Dimensionen setzte sich in der Physik jedoch bald durch.

Nun erwies sich Einsteins Zeit, als 4. Komponente zu einem 3-dimensionalen reellen Raum, aber zusätzlich als von imaginärer Natur – eine Zumutung für mathematisch ungeschulte Philosophen!

Doch es kam noch schlimmer. Matrizen verhalten sich nämlich auch anders, als wir es von den zuvor verwendeten Zahlen gewohnt waren: Während für (reelle wie komplexe) Zahlen noch die Reihenfolge ihrer Faktoren egal ist („Kommutativgesetz“) gilt diese „Vertauschbarkeit“ der Faktoren bei Matrizen i.A. nicht mehr! In Anwendung auf einen Vektor als physikalischen „Zustand“ hat eine Matrix die Bedeutung einer „Aktion“, die diesen „Zustand“ verändert. Und Aktionen hängen nun mal von ihrer Reihenfolge ab!

Geläufig ist uns diese Nichtvertauschbarkeit der Reihenfolge von Aktionen aus den Drehungen starrer Körper im 3-dimensionalen Raum. Mathematiker pflegen diese Art Drehungen vornehmer als „orthogonale Transformationen in 3 Dimensionen“ zu klassifizieren. Die Menge all solcher Transformationen kürzen sie entsprechend mit O(3) ab. (Zum „Verständnis“ sind diese Formalien leider unabdingbar!)

Auf jene „starren Körper“ stoßen wir u.a. beim Übergang von der Punktmechanik zu Mehrpunkt-Systemen. Ihr Charakteristikum ist es, dass die „Inneren Produkte“ aus der Vektorrechnung, die wir aus je 2 ihrer Punktdifferenzen bilden können, bei orthogonalen Drehungen unverändert erhalten bleiben.

Dem gegenüber stehen die so genannten „unitären Transformationen“, die diese „Inneren Produkte“ verändern – jedoch invariant bleiben, wenn wir die eine ihrer beiden Vektordifferenzen jeweils konjugiert-komplex nehmen. Die Mathematik zeigt, dass dies gerade einer Wahrscheinlichkleits-Erhaltung entspricht. (Die komplexen Komponenten eines Vektors summieren sich im Inneren Produkt mit seinem konjugiert-komplexen Gegenstück bei einer unitären Transformation nach Pythagoras gerade zum Quadrat seiner unveränderten Gesamtlänge zusammen.) Bei n Dimensionen wird eine unitäre Transformation mit U(n) abgekürzt. Eine U(n) stellt eine (komplexwertige) Erweiterung der O(n) dar.

Man lasse sich nicht durch Bezeichnungen wie SO(n) oder SU(n) ins Bockshorn jagen. Das vorangestellte „S“ (= Spezial) deutet nur auf eine mathematische Spitzfindigkeit hin, die für den Laien i.A. nicht sonderlich von Belang ist. (So umfasst eine O(n) z.B. Spiegelungen mit, die in einer SO(n) fehlen.)

Zu einer ganz anderen Klasse von Transformationen gehört eine SO(n,m), die n imaginäre Dimensionen mit m reellen Dimensionen zu insgesamt n+m Dimensionen verknüpft. Zu ihr gehört auch die „Lorentz-GruppeSO(1,3), die die 4 Komponenten von Einsteins „Raumzeit“ miteinander verbindet. Ihre imaginäre Dimension wird gern als „zeitartige“, die 3 reellen als „raumartige“ Richtungen bezeichnet – das Umgekehrte ist ebenso geläufig. (Für das vorangestellte „S“ gilt das gleiche wie schon zuvor gesagt.) Eine SO(n,m) heißt „pseudo-orthogonal“, eine SU(n,m) „pseudo-unitär“.

Das Bedeutsame hierbei ist, dass Teilchenreaktionen in einem (im thermodynamischen Sinne) „abgeschlossenen System“ grundsätzlich (echt) unitär zu sein haben; denn nach dem physikalischen Grundsatz „nichts kommt von nichts, nichts geht verloren“ müssen sie unbedingt die Wahrscheinlichkeit erhalten! Dem gegenüber ist Einsteins Dynamik pseudo-orthogonal: Sie verletzt demnach die Wahrscheinlichkeitserhaltung. Damit ist sie de facto Bestandteil eines „offenen System“! In der Quantengravitation [1] werden diese thermodynamischen Systeme als „Kanäle“ bezeichnet:

 

Impressum

Verlag: BookRix GmbH & Co. KG

Texte: © 2018. Alle Rechte vorbehalten.
Übersetzung: Dies ist das Original zu einem e-Buch mit Datum von 2018 des Verlages BookRix, München. Die englische Übersetzung "Quantum Gravity. Reasoning with New Physics" erscheint im selben Verlag mit demselben Datum.
Tag der Veröffentlichung: 02.01.2018
ISBN: 978-3-7438-4840-5

Alle Rechte vorbehalten

Nächste Seite
Seite 1 /