Cover

Vorwort

Sie, lieber Leser, denken jetzt sicher: heilige Sch..., was soll denn jetzt das? - Damit liegen sie gar nicht so verkehrt. An der Wissenschaft ist nichts heilig. - Nur viele Naturwissenschaftler glauben das offensichtlich und verteidigen immer wieder längst überholte Erkenntnisse wie die Inquisition die Sakramente der katholischen Kirche. Sie haben es dabei als Doktoren und Professoren in der Hand, diejenigen Wissenschaftler auszuwählen, die sich an weiteren Forschungen beteiligen dürfen. Wer als Student oder Doktorand ihnen gegenüber radikal andere Ideen äußert, wird leicht als "Spinner" hingestellt, der nur "gefährlichen Unsinn" verbreiten will.

Wie kann man es auch nur wagen, beispielsweise Newtons "heiliges" Gesetz der Gravitation irgendwie anzuzweifeln? Darauf baut doch schließlich die gesamte moderne Physik auf. Wer es schließlich schafft, selbst Professor zu werden, hat immer nur gemäß der alten anerkannten Regeln und Gesetze geforscht. Dabei sind die meisten so "betriebsblind" geworden, dass sie nun selbst an diese "heiligen" Gesetze glauben. Und diejenigen, die das Geld für die Forschung bereit stellen, kennen von den Professoren und ihren Helfern auch nur diese "heiligen" Gesetze und Erkenntnisse. Also gibt es nur Geld für solche Forschungen, die sich auf diese stützen.

 

Wenn man beispielsweise bei der Astrophysik das Verhalten der Galaxien und Sterne im Universum mit dem Newtonschen Gravitationsgesetz zu beschreiben versucht, benötigt man eine "dunkle Materie", die die Sterne in den Spiralarmen der Galaxien dort fest hält, wo sie sich befinden, und eine "dunkle Energie", die der Gravitation entgegen wirkt und das beobachtete stetige Ausdehnen des Universums ermöglicht.

Diese "dunkle Materie" und "dunkle Energie" kann man weder sehen noch irgendwie direkt messen. Man kann nur ihre Wirkung mit Hilfe der bekannten physikalischen Gesetze und Formeln berechnen. Wenn man das tut, machen diese unbekannte "dunkle Materie" und die "dunkle Energie" den mit Abstand größten Teil unseres Universums aus. Also wissen wir über das allermeiste in unserem Universum schlicht und einfach NICHTS. Ist das nicht interessant? Ähnlich wie in diesem besonders eindrucksvollen Beispiel der Astrophysik ist es auch in anderen Wissenschaften wie der Physik, Biologie, Geologie, Archäologie oder der Medizin.

Deshalb möchte ich nachfolgend am Beispiel der Paraphysik zeigen, welche Möglichkeiten ein von alten eingefahrenen Mustern abweichendes Denken aufzeigen kann. Bei diesem ganzheitlichen Denken wird nicht, wie in der anerkannten Naturwissenschaft üblich, ausschließlich das ausgewertet, was man sehen oder messen kann, sondern auch Kenntnisse aus den Geisteswissenschaften wie Religion, Esoterik oder Philosophie.

 

Das eine ganzheitliche Betrachtung durchaus hilfreich sein kann, zeigt wohl eindeutig die Anwendung der traditionell chinesischen Medizin. Auch wenn es in unserer Schulmedizin keine Erklärung dafür gibt, kann man beispielsweise mit Akupunktur Krankheiten heilen. Besonders in der Physik zeigen sich erstaunliche Möglichkeiten, wenn man an ihre Fragestellungen mit einem ganzheitlichen Denken heran geht.

Sogar für utopisch erscheinende Dinge wie eine unbegrenzt vorhandene Energie, interstellare Raumfahrt oder sogar eine Zeitmaschine kann man dabei wissenschaftlich plausible Erklärungen finden. Zudem lassen sich religiöse Vorstellungen wie die Existenz einer unsterblichen Seele und Phänomene wie Telepathie oder Hellsehen mit Methoden der Naturwissenschaft erklären.

Lassen Sie sich also nun einmal nicht in die Welt der Elfen und Drachen, sondern in die Welt einer ganzheitlichen Wissenschaft entführen. In Form einer Geschichte wie bei Nimhil dem Drachenreiter oder der Rache einer Elfe geht das aber leider nicht. Also wähle ich hier die Form eines Sachbuchs. Trotzdem versuche ich das Thema so anschaulich und verständlich wie nur irgend möglich darzustellen.

Da es sich aber um Physik handelt, ist dabei die Mathematik das wichtigste Werkzeug, wenn man etwas erklären oder berechnen will. Trotzdem versuche ich, alles mit Worten, Zeichnungen oder Diagrammen OHNE mathematische Formeln zu erklären. Leider können diese Erklärungen dann nicht vollständig sein. Deshalb habe ich die wenigen unverzichtbaren Formeln und mathematischen Erklärungen im Anhang am Ende des Buches zusammen gefasst. Wer also eine vollständige Erklärung sucht, kann diese dort nachlesen. Für das Verständnis der Zusammenhänge benötigt man das jedoch nicht. Wer also Formeln hasst, braucht im Anhang nicht zu lesen.

 

Ihr Nikolai Fritz.

1. Was ist Paraphysik?

Eigentlich muss man die Frage stellen: wozu braucht man neben der "richtigen" Physik noch eine Paraphysik. Um an die Wahrheit heran zu kommen, sollte doch EINE Wissenschaft ausreichen. Wenn aber die katholische Kirche immer noch behauptet, mit Gottes Wort die einzige wirkliche Wahrheit zu vertreten, und Naturwissenschaftler es zu ihrem Prinzip gemacht haben, nur das zu glauben, was man beobachten und messen kann, müssen wir uns mit zwei "Wahrheiten" auseinander setzen.

Dabei wollen die Vertreter der einen "Wahrheit" jeweils von der anderen nichts wissen - auch dann, wenn diese entscheidende Erkenntnisse liefern könnte. Also bauen Kirche UND Naturwissenschaft ihr gesamtes Wissen auf nur die HALBE Wahrheit auf. Wer dabei versucht, die jeweils andere "Wahrheit" zu berücksichtigen, wird entweder zum Ketzer oder er muss sich vorwerfen lassen "unwissenschaftlich" zu arbeiten.

Mit der Methode einer ganzheitlichen Betrachtung versuchen nun Parawissenschaftler an die ganze Wahrheit heran zu kommen. Dabei wird ihre Arbeit weder von der Kirche noch von der etablierten Naturwissenschaft anerkannt. Es gibt von keiner Stelle Geld für ihre Forschungen. Die meisten Parawissenschaftler arbeiten als Amateure in ihrer Freizeit. Wie soll man aber dann ein Fachbuch veröffentlichen oder Vorlesungen an einer Hochschule halten? Also bleibt nur die Möglichkeit, mit einem Sachbuch einen größeren Leserkreis anzusprechen.

Mit wissenschaftlichen Fakten alleine kommt man dann aber nicht weit. Irgendwie soll es auch Interessant sein. Man möchte möglichst viele Leser erreichen. So lassen sich manche dazu hinreißen Dinge zu behaupten, die nachweislich falsch sind. Damit geben sie wieder denen Recht, die Parawissenschaftler als "nicht kompetente Spinner" hinstellen, die nur "gefährlichen Unsinn" verbreiten wollen. Beim Thema 'Hohle Erde' und 'Polöffnungen' spreche ich in Kapitel 2.2.1 diese Problematik als Beispiel noch einmal detailliert an.

 

Paraphysik ist ein Teilbereich dieser Parawissenschaften, der leider nur sehr wenig Beachtung findet. Bei Physik denkt man sofort an höhere Mathematik und unverständliche Formeln. Damit will außer Physikern kaum jemand etwas zu tun haben. Dann erfährt man immer wieder etwas von der Forschung an Teilchenbeschleunigern wie dem CERN bei Genf. Von dem, was dort gemacht wird, verstehen wir aber absolut nichts.

Was ist beispielsweise ein Higgs-Teilchen, und was kann man überhaupt damit anstellen? Da kann einer der Wissenschaftler im Fernsehen eine Stunde lang seine Arbeit erklären, und wir verstehen immer noch nichts. Wofür verschwendet man dort also das Geld der Steuerzahler? Dann warnen andere Wissenschaftler, dass dort vielleicht eine Art künstlicher Urknall die gesamte Erde zerstören könnte.

Wir Parawissenschaftler verbreiten also angeblich gefährlichen Unsinn. Was ist aber diese Aussage? Wo soll denn die gewaltige Energie eines künstlichen Urknalls her kommen? Aus ein paar "schlappen" Atomkraftwerken? Unwissenschaftlicher geht es doch wohl kaum! Lange bevor im CERN irgend etwas explodieren oder zusammen brechen kann, geht in der gesamten Schweiz das Licht aus. So sehe ich das jedenfalls als Paraphysiker.

Trotz der genannten Problematik versuche ich nun nachfolgend, diesen sehr wichtigen Teil der Parawissenschaft an Sie als Leser zu vermitteln. Wenn ich mit meinen Ideen und Forschungen nicht völlig daneben liege, hat hier die etablierte Wissenschaft schon viele Jahrzehnte lang wichtige Erkenntnisse verschlafen. Nun möchte ich aber zunächst einmal darauf eingehen, wie es zur Trennung von Geistes- und Naturwissenschaft gekommen ist, und welche Konsequenzen sich daraus ergeben.

1.1 Religion und Naturwissenschaft

Im frühen Mittelalter konnten oft nicht einmal Könige lesen und schreiben. Also fanden fast alle Forschungen in den Klöstern bei den Mönchen statt. Nur bei ihnen gab es Bücher, und nur sie konnten darin lesen. Die Mönche waren eifrige Forscher. Also fanden sie bald verschiedene Dinge heraus, die der christlichen Lehre, wie sie in Rom vom Vatikan vertreten wurde, widersprachen. Sie schrieben es auf und verbreiteten es bei den anderen Mönchen.

Darunter waren auch Schriften, in denen die absolute Macht des Vatikan und des Papstes als wahre Vertreter Gottes auf der Erde angezweifelt wurden. So etwas konnte der Vatikan nicht dulden. Also richtete er die Inquisition ein und verfolgte jeden, der eine andere Meinung vertrat, als sie vom Vatikan als richtig angesehen wurde. Wer sich von seiner anderen Überzeugung nicht abwendete, wurde schließlich als Ketzer auf dem Scheiterhaufen verbrannt.

Dieses Bekämpfen "falscher" Ansichten stärkte zwar zunächst die Macht des Vatikan, verhinderte aber nicht, dass man immer öfter erkannte, dass die Dinge anders waren als es die Kirche wahr haben wollte. Also forschte man erst einmal im Geheimen weiter und tauschte seine Erkenntnisse ganz im Verborgenen nur unter gleich gesinnten aus. Zu den wichtigsten Erkenntnissen zählen dabei die von Galilei, Kopernikus und Kepler.

Sie fanden bei mathematischen Berechnungen der Planetenbahnen heraus, dass sich nicht die Erde und dort Jerusalem im Mittelpunkt der Welt befinden, sondern sich alle Planeten um die Sonne drehen. Schließlich kam es zur Spaltung der Kirche. Die Inquisition verlor dabei ihre Macht. Der Buchdruck wurde erfunden. Immer mehr Menschen lernten lesen und schreiben. Man konnte also nun die Ergebnisse seiner Forschungen bei einem größeren Leserkreis verbreiten.

 

Mit der Kirche spaltete sich nun auch die Wissenschaft in Geistes- und Naturwissenschaft. Da man sich von den Vertretern des Glaubens und der Kirche immer noch verfolgt fühlte, ließ man nun in der Naturwissenschaft nur noch das als wahr gelten, was man beobachten oder messen kann. Alles wurde akribisch dokumentiert, damit man es als "Beweis" präsentieren konnte. Ein Bezug auf religiöse Vorstellungen, unerklärliche Phänomene, Träume oder Visionen von Personen oder ähnliches gilt bis heute als "unwissenschaftlich".

Wenn jemand eine Theorie entwickelt, muss er sie immer nur mittels Beobachtungen und Experimenten belegen oder beweisen. Wenn aber die Wissenschaft die ganze Wahrheit sucht, ist nicht dann diese selbst auferlegte Beschränkung auf das Sichtbare und Messbare letztlich irgendwie eine Beschränkung auf die HALBE Wahrheit?

 

Betrachten wir also die Vorgehensweise bei beiden Teilen der Wissenschaft. Bei der Religion ist es vergleichsweise einfach: Da ist die Bibel, und sie ist Gottes Wort. Damit ist alles, was dort geschrieben steht, unantastbar. Gleiches gilt für den Koran und andere Bücher. Es bleibt lediglich ein recht kleiner Spielraum für Auslegungen. Man versucht also, alle Beobachtungen so zu erklären, dass sie mit dem zusammen passen, was in der Bibel geschrieben steht.

Wenn man beispielsweise verschiedene Anpassungen eines Finken an seinen jeweiligen Lebensraum beobachtet, dann hat der allmächtige Gott das alles so geschaffen, und die Finken haben sich nicht im Laufe einer Entwicklung an ihre Lebensräume angepasst.

Genau genommen beweisen die Beobachtungen ja zunächst weder das eine noch das andere. Nur aus der Sicht der Logik ist doch eine Entwicklung oder Evolution viel wahrscheinlicher als ein Gott, der nichts besseres zu tun hat, als sich neben allen anderen Lebewesen auf der Erde auch noch um eine Vielzahl verschiedener Finken zu kümmern. Die Frage ist doch nur, ob man das GLAUBT, was in der Bibel steht, oder nicht.

 

In der Naturwissenschaft gibt es viele akribisch dokumentierte Beobachtungen. Daraus lassen sich Schlüsse ziehen und Theorien entwickeln. In unserem Beispiel mit den Finken ist es Darwins Theorie einer Evolution. Ohne die Theorien, mit denen man das Beobachtete zu erklären versucht, hat man doch nur eine riesige und vollkommen unübersichtliche Menge an Fakten ohne jeden Zusammenhang.

Was ist aber, wenn die gesammelten Fakten nicht eine, sondern mehrere mögliche Theorien stützen? Bei Darwin und den Finken ist es aus rein naturwissenschaftlicher Sicht nur die eine Theorie der Evolution. Welche Theorie ist aber die "wahre" oder "richtige", wenn es mehrere gibt, die durch die selben Versuche und Beobachtungen bestätigt werden?

 

Dazu möchte ich folgendes Beispiel anführen: Als Übertragungsweg Magnetkraft und Gravitation vermutete man zunächst einen unsichtbaren 'Äther', der jeden leeren Raum ausfüllt und dabei als Medium diese Kräfte weiter leitet. Änderungen der Kräfte breiten sich dabei wie Wellen auf einer Wasseroberfläche aus. Dann erforschte man die atomaren Teilchen und die Wechselwirkungen zwischen ihnen. Dabei entdeckte man, dass sich die Kräfte zwischen den atomaren Teilchen nicht kontinuierlich ändern, sondern immer um einen genau gleichen Betrag, den man 'Quantum' nennt.

Außerdem fand man heraus, dass sich ein atomares Teilchen irgendwie an mehreren Orten gleichzeitig befinden kann. Daraus schloss man, dass die Kräfte nicht durch ein unsichtbares Medium wie den 'Äther' übertragen werden, sondern durch einen Austausch von speziellen atomaren Teilchen, die sich irgendwie gleichzeitig im gesamten Raum zwischen den Objekten befinden, auf die die Kräfte wirken. Jedes 'Quantum' entspricht dabei genau einem solchen Teilchen. An die Stelle des 'Äthers' trat also die 'Quantenmechanik'.

 

Was ist aber nun der "wahre" Übertragungsweg? Ein Teilchen, das jenseits aller unserer Vorstellungskraft an mehreren Orten gleichzeitig sein kann, oder vielleicht doch ein unsichtbarer 'Äther' als Medium? Oder finden wir bald bei neuen Experimenten heraus, dass es ganz anders funktioniert? Niemand weiß es.

Trotzdem gilt heute die Quantenmechanik als die einzige richtige Erklärung. Kein Forscher würde es wagen, das anzuzweifeln. Es ist auch nicht zu erwarten, dass bald Experimente bekannt werden, die etwas anderes vermuten lassen. Alle Experimente werden ja auf der Grundlage der Quantenmechanik geplant und durchgeführt. Da ist es sehr unwahrscheinlich, dass bei ihnen etwas heraus kommt, dass dieser Theorie widerspricht.

Was würde aber bei Versuchen heraus kommen, die zum Ziel hätten, einen 'Äther' als Übertragungsweg nachzuweisen? Wir wissen es nicht, weil niemand solche Versuche macht. Ist in diesem Beispiel die Quantenmechanik wirklich die wahre Erklärung für den Übertragungsweg der Kräfte, oder ist es nur eine Art GLAUBE an die Quantenmechanik, der die Vorgehensweise bei der Forschung stark beeinflusst? Kann es sein, dass die Naturwissenschaft der Religion zwar vorwirft, einfach blind an irgend etwas zu glauben, aber dann letztlich den selben Fehler macht? Geht es nicht irgendwie an einem Lehrstuhl einer Universität genau so um Geld und Macht wie beim Vatikan?

Was ist also, wenn ganz allgemein die Geisteswissenschaften und die Religion an eine Möglichkeit glauben, die Naturwissenschaft aber letztlich auch nur glaubt, aber an eine ganz andere Möglichkeit? Jedenfalls verteidigen die Vertreter beider Seiten ihre Ansichten sehr hartnäckig. Kann es also nicht sein, dass die Wahrheit irgendwo dazwischen liegt? Genau das ist es, was die Paraphysik mit der ganzheitlichen Betrachtung heraus zu finden versucht.

 

Das Beispiel mit der Quantenmechanik ist hier sicherlich nicht glücklich gewählt, da nur wenige etwas davon verstehen. Ein besseres Beispiel ist mir aber nicht eingefallen. In den nachfolgenden Kapiteln wird noch mehrfach auf diesen wichtigen Übertragungsweg der Kräfte eingegangen. Er ist ein zentrales Thema in der Paraphysik. Ich hoffe, das Vorstehende wird dann etwas verständlicher. Bevor ich im nächsten Kapitel das Zeitschalenmodell als Grundlage der hier präsentierten Paraphysik kurz vorstelle, möchte ich noch kurz einiges zu anderen Parawissenschaften erwähnen.

Die erste und wohl bekannteste der "Para"-Wissenschaften ist die Parapsychologie. Sie ist der Versuch, mit Methoden der Psychologie, also mit Beobachtungen und deren statistischer Auswertung, unerklärliche Phänomene wie Telepathie, Hellsehen, Telekinese und ähnliches zu untersuchen. Dabei kann man nur nachweisen, ob solche Phänomene tatsächlich auftreten oder nicht. Man kann man sie aber immer noch nicht erklären.

Einige medial begabte Versuchspersonen waren dabei tatsächlich in der Lage, die genannten Phänomene herbei zu führen. In den meisten Fällen ereignete sich aber nichts anderes, als gemäß der Statistik zu erwarten war. Es zeigt sich also, dass diese Phänomene unter bestimmten Bedingungen tatsächlich auftreten können. Wenn das so ist, sollte eine ganzheitliche Wissenschaft auch eine Erklärung für sie liefern können.

 

Für viele ist in der letzten Zeit eine ganzheitliche Medizin wichtig geworden. Auch wenn es die Schulmedizin nicht erklären kann, hilft sie oft Leiden wie ständige Schmerzen oder ähnliches zu lindern. Am bekanntesten ist hier sicherlich die Akupunktur, ein kleiner Teilbereich der traditionell chinesischen Medizin, deren Wirkung mittlerweile anerkannt ist. Viele chronische und mit der Schulmedizin unheilbare Krankheiten kann man mit der ganzheitlichen Methode wirksam lindern oder sogar heilen.

So wie sich bei den anderen Parawissenschaften einige mit spektakulären aber nachweislich falschen Aussagen wichtig machen wollen, gibt es auch hier viele Scharlatane, die nur ein Geschäft damit im Sinn haben. Das gibt dann wieder der Schulmedizin recht, wenn deren Vertreter eindringlich vor ganzheitlichen Methoden warnen.

Der Verlierer bleibt dabei der Patient, wenn ihm die Schulmedizin nicht recht helfen kann, er aber ganzheitlichen Methoden nicht traut. Auch hier vertreten beide Gruppen doch letztlich nur ihre Interessen, anstatt das eigentliche Ziel, nämlich kranken Menschen zu helfen, gemeinsam anzugehen. Geschäfte machen doch beide damit.

Wie viele sehr teure Medikamente werden verschrieben, obwohl sie nicht wirklich helfen? Oft werden doch so viele Arzneimittel gleichzeitig eingenommen, dass man gar nicht feststellen kann, welche von ihnen tatsächlich wirksam sind. Einige Ärzte vertrauen da offensichtlich einfach nur der Pharmaindustrie.

Diese vielen überflüssigen Medikamente zahlt dann zwar die Kasse und nicht der Patient selbst, der Schaden ist dabei aber doch für das gesamte Volk der selbe. Eigentlich gehört das überhaupt nicht zum Thema dieses Buches. Ich musste es aber irgendwie hier erwähnen. So wichtig ist es für mich. Im nächsten Kapitel mache ich mit einer knappen Vorstellung des Zeitschalenmodells weiter. Dabei versuche ich, mich nur auf das Wichtigste zu beschränken und alles so anschaulich wie nur möglich zu erklären.

1.2 Das Zeitschalenmodell

Das Zeitschalenmodell habe ich bereits vor langer Zeit in der Freizeit neben meiner Tätigkeit als Ingenieur entwickelt. Mein Ziel war es damals, einen Übertragungsweg der Telepathie auf der Grundlage der Atomphysik nachzuweisen. Also habe ich verschiedene Bücher zu diesem Thema intensiv studiert. Da ich aber nicht mathematisch abstrakt sondern visuell - also in Bildern - denke, brachten mich die vielen Zahlen und Formeln zunächst überhaupt nicht weiter.

Wenn ich etwas erkennen oder entdecken will, muss ich mir ein Bild machen können. Gibt es aber nur Zahlen und Formeln, ist das für mich etwa so, als wollte ich mir einen Eindruck von einer Stadt verschaffen, indem ich im Telefonbuch dieser Stadt lese. Also konnte ich nur entweder alles hin schmeißen, oder ich musste einen Weg finden, die Formeln und Zahlen irgendwie zu einem Bild zusammen zu fügen.

Die entscheidende Idee hatte ich dann, als ich mir eine Vorstellung davon machen wollte, wie gemäß der Quantenmechanik ein atomares Teilchen an mehreren Orten gleichzeitig sein kann. Bei der anerkannten Physik gibt es dazu nur Formeln wie die Schrödinger-Gleichung, mit denen man berechnen kann, mit welcher Wahrscheinlichkeit dieses Teilchen an verschiedenen Stellen bei einer Messung anzutreffen ist. Einsteins Relativitätstheorie zeigt aber die Möglichkeit einer oder mehrerer zusätzlicher Dimensionen zu unseren bekannten drei Raumdimensionen Länge, Höhe und Breite.

 

Also stellte ich mir ein atomares Teilchen, das in unseren drei Dimensionen punktförmig erscheint, als Energiefluss durch die zusätzlichen Dimensionen vor. Für einen Punkt ergibt sich dann eine Linie oder ein Strahl durch den aus allen Dimensionen gebildeten "Raum", den ich 'Strom' nenne. Wenn der Ort eines Teilchens unbestimmt ist, es also bei einer Messung an verschiedenen Orten angetroffen werden kann, verteilt sich dessen 'Strom' über alle Dimensionen des "Raumes" hinweg. Diesen Zustand eines Teilchens nenne ich 'Feld'. Der aus allen Dimensionen entstehende "Raum" entspricht dem 'Raum-Zeit-Kontinuum' der Relativitätstheorie, das auch als 'Hyperraum' oder 'Raumzeit' bezeichnet wird.

Bei weiteren Überlegungen fand ich heraus, dass es insgesamt sechs Dimensionen im 'Raum-Zeit-Kontinuum' oder im 'Hyperraum' oder in der 'Raumzeit' geben muss. Man kann diese sechs Dimensionen in drei Raum- und drei Zeitdimensionen einteilen. Aus einen anderen Blickwinkel - einem Schnitt durch Raum und Zeit - betrachtet, ergeben sich drei Raumdimensionen der Vergangenheit und drei Raumdimensionen der Zukunft. Unsere Gegenwart oder die 'Zeitschale des "Jetzt"' ist dann ein dreidimensionaler Schnitt durch die sechs Dimensionen. Alles, was unsere erfassbare Welt ausmacht, liegt in diesem dreidimensionalen Schnitt durch die 'Raumzeit' auf der 'Zeitschale des "Jetzt"'. Eine Betrachtung der Eigenschaften aller bekannten Elementarteilchen bestätigt zudem die Existenz von insgesamt sechs Dimensionen.

Wenn Sie als Leser von dem vorstehenden nun absolut nichts verstanden haben, ist das ganz normal. Niemand kann sich mehr als drei Dimensionen irgendwie wirklich vorstellen. Ich selbst kann es auch nicht, habe mich aber im Laufe der vielen Jahre an diese seltsame Sichtweise gewissermaßen gewöhnt. So kann ich Zeichnungen und Skizzen anfertigen und aus ihnen meine Schlüsse ziehen. Ich habe es aber lange Zeit nicht fertig gebracht, das Manuskript zum Zeitschalenmodell zu veröffentlichen. Eigentlich sollte es ja ein Sachbuch werden.

Obwohl ich mich bemühte, alles so anschaulich wie nur möglich darzustellen, wurde es doch kaum verständlicher als das Vorstehende. Ohne die Bereitschaft, sich mit sechs Dimensionen und der gesamten Atomphysik wirklich auseinander zu setzen, ist es wohl einfach nicht zu begreifen. Aus dem geplanten Sachbuch wurde also gewissermaßen ein Fachbuch, das kein Fachbuch sein darf - ein Buch, dass viele Leser ansprechen soll, aber letztlich nur von wenigen verstanden wird.

 

Bevor ich im nachfolgenden Kapitel zunächst einmal darauf eingehe, was zum Thema 'angeblich falsche Wissenschaft' und 'Verschwörungen' alles in der Literatur zu finden ist, möchte ich die wichtigsten Prinzipien des Zeitschalenmodells, die zu den Grundlagen für ein ganzheitliches Denken gehören, kurz vorstellen. Es sind gewissermaßen die Regeln oder Gesetze nach denen das gesamte Universum gemäß dem Zeitschalenmodell aufgebaut ist. Weitere Erklärungen dazu finden sich dann jeweils später bei den in diesem Buch angesprochenen Themen. Wenn es jetzt vollkommen unverständlich wird, ist das wieder ganz normal. Deshalb fasse ich mich auch ganz kurz. Ich hoffe, die Erkenntnis kommt dann irgendwann später - oder vielleicht auch nicht.

Nach dem 'Prinzip der senkrechten Durchdringung' können sich die 'Ströme' und 'Felder', also die Energieflüsse in der sechs dimensionalen 'Raumzeit' nur dann durchdringen, wenn sie senkrecht zueinander stehen. Daraus ergeben sich alle Quarks (Up u, Down d, Strange s, Charm c, Bottom b, Top t) und Leptonen (Elektron e, Müon μ, Tauon τ und die entsprechenden Neutrinos νe, νμ, ντ) als atomare Grundbausteine (siehe im Anhang A.3 Abbildung A.3:1) und daraus wiederum die Atome mit Kernen aus Protonen und Neutronen und einer Hülle aus Elektronen. Protonen und Neutronen bestehen jeweils aus drei Quarks (Proton: Up + Up + Down; Neutron: Up + Down + Down). Neben den atomaren Teilchen lässt sich auch der Aufbau des Universums mit diesem Prinzip erklären.

Das 'Prinzip der Gleichzeitigkeit' besagt, dass sich ein 'Strom' oder 'Feld' an allen Punkten, die er in der 'Raumzeit' durchläuft, gleichzeitig befindet. Damit lässt sich das seltsame Verhalten atomarer Teilchen nach der Quantenmechanik erklären, bei dem sie sich an mehreren Orten gleichzeitig befinden können. Im Zusammenhang mit der senkrechten Durchdringung erklärt dieses Prinzip über die Weite des Weltalls hinweg auch die Lichtgeschwindigkeit. Dabei existiert auf der 'Zeitschale des "Jetzt"' jeder Punkt im Raum gleichzeitig. Er gehört zum selben Zeitpunkt, dem Augenblick der Gegenwart. Die Lichtgeschwindigkeit ergibt sich dann aus der senkrechten Durchdringung eines ausgesendeten und eines ankommenden Lichtstrahles in den drei nicht erfassbaren Dimensionen der 'Raumzeit'.

Nach dem 'Prinzip der gegensätzlichen Pole' oder auch 'Prinzip der Nullsumme' gibt es zu jedem messbaren Phänomen im Universum ein Gegenstück, wobei sich die Wirkungen der beiden Gegenstücke immer zu Null aufheben. Zu einer Kraft gibt es immer eine Gegenkraft, zur Materie gibt es Antimaterie, zu einer positiven elektrischen Ladung gibt es eine negative, und so weiter. Dieses Prinzip erklärt mit der Nullsumme, wie das Universum ewig existieren kann, ohne dass dabei Energie verbraucht wird oder verloren geht (das Universum als perpetuum Mobile). - Auf das Leben übertragen kann es nach diesem Prinzip nichts Gutes geben, wenn es nicht gleichzeitig etwas Böses gibt. Aus dem Streben nach einem Paradies folgt damit unausweichlich die Existenz einer Hölle - das sollte Christen, Juden und Moslems zu denken geben!

Als letztes sei hier das 'Prinzip der endlichen Unendlichkeit' genannt. Es erklärt, wie das Universum als endlich großes Etwas zwischen zwei gegensätzlichen Polen, die jeweils im Unendlichen liegen, existieren kann. Diese beiden Pole sind das Nichts einer unendlich großen Dichte ohne Ausdehnung im so genannten Urknall und das zweite Nichts einer unendlichen Ausdehnung ohne Inhalt auf der anderen Seite. Beide Pole sind dabei Grenzwerte, an die ein atomares Teilchen zwar beliebig dicht heran kommen, die es aber niemals erreichen kann. Damit existiert das Universum als ein Etwas zwischen dem Nichts des Urknalls und dem Nichts einer unendlichen Ausdehnung.

Nach dem Prinzip der gegensätzlichen Pole müssen dabei alle 'Ströme' und 'Felder' einen Kreislauf bilden, der zu gleichen Teilen aus Materie und Antimaterie besteht. Das Universum oder WeltALL umfasst dabei ALLES, was in einem umgebenden NICHTS existiert. - Nach diesem Prinzip irrte Einstein wohl mit der Unendlichkeit des Universums, bei der er sich nicht ganz sicher war. Mit der Unendlichkeit der menschlichen Dummheit dürfte er aber Recht behalten.

 

Wenn diese Prinzipien neben dem physikalischen auch etwas philosophisches oder religiöses ausdrücken, ist das eine Folge der ganzheitlichen Betrachtungsweise. Den so genannten Urknall als Grenzwert des Nichts kann man nicht messen oder sonst irgendwie nachweisen. Er ergibt sich aber, wenn man die Materie als 'Ströme' und 'Felder' in einer sechs dimensionalen 'Raumzeit' betrachtet und dabei nicht begreifen kann oder will, wie das Universum irgendwann plötzlich mit einem gewaltigen "Knall" aus dem Nichts entstanden sein soll. In der Bibel steht einiges über die Ewigkeit, aber nichts über einen Urknall. Warum soll also dann das Universum nicht einfach ewig existieren und der so genannte Urknall ist dabei nur eine Art Wendepunkt im Fluss der Materie? Messen kann man nur eine ständige Ausdehnung des Weltalls.

Und wenn man die zurück rechnet, ist das Universum vor etwa fünfzehn Milliarden Jahren aus etwas unendlich kleinem hervor gegangen. Einen "Knall" gibt es dabei aber nur in den Köpfen der Wissenschaftler. Auch 'Ströme' und 'Felder', aber auch Quarks als atomare Grundbausteine, kann niemand direkt messen. Sie ergeben sich erst als theoretischer Ansatz bei einer Auswertung der vielen Versuche mit atomaren Teilchen. Damit haben doch auch sie letztlich mehr mit Glauben zu tun als mit nachprüfbaren Fakten. Wenn es also keine 'Ströme' und 'Felder' in der 'Raumzeit' geben soll, kann ich genau so gut behaupten dass es keine Quarks gibt, oder dass es niemals einen Urknall gegeben hat.

1.3 Fakten und Phänomene

Schon lange versuchen Parawissenschaftler aufzuzeigen, dass in der etablierten Wissenschaft und vor allem bei deren Vertretern wohl so einiges nicht ganz stimmt. Einen wichtigen Impuls dazu lieferte ein Ereignis, das sich in den 1950er Jahren in der Wüste von Nevada ereignete und einen kleinen Ort mit dem Namen 'Roswell' berühmt machte. Nicht weit von Roswell entfernt gibt es in der Abgeschiedenheit der Wüste ein geheimes Testgelände für Flugzeuge und Waffensysteme, das 'Area 51' genannt wird. Dieses Gelände ist nur für dessen Mitarbeiter zugänglich, die zur strengen Geheimhaltung verpflichtet sind. Alle anderen werden durch einen Wachdienst von dem Zaun fern gehalten, der dieses Gelände umgibt.

Alles begann, als in der Nähe von Roswell ein seltsames Objekt abstürzte. Wenn neue Flugzeuge und Waffensysteme getestet werden, sollte es nicht besonders ungewöhnlich sein, wenn irgendwo in der Umgebung des Testgeländes etwas abstürzt. Wenn das zudem in einer Wüste geschieht, wo niemand wohnt, sollte auch keine Gefahr davon ausgehen. Befremdlich war daher nicht der Absturz selbst, sondern das, was man der Bevölkerung als Erklärung dafür lieferte.

Ein Einwohner Roswells, der den Absturz beobachtete und dann auch ordnungsgemäß bei der Polizei meldete, konnte bei dem, was er dort vorfand, nichts erkennen, was er irgendwie kannte. Also schloss er daraus, dass dort ein UFO mit Außerirdischen abgestürzt sein musste. So stellte er seine Beobachtungen dann auch dar. In den 1950 Jahren wurden besonders in den USA häufig unbekannte Flugobjekte irgendwo in der Luft beobachtet, sodass diese Erklärung nahe lag.

 

Nach bekannt werden des Vorfalls wurde die Absturzstelle sofort vom Militär abgesperrt, und alle Trümmer wurden fort geschafft. Dann erklärte man offiziell, dass es sich möglicherweise tatsächlich um ein außerirdisches UFO handeln könnte. Vermutlich wollte man mit dieser vorschnellen Aussage von den Aktivitäten ablenken, die es in 'Area 51' gab. Kurze Zeit später wurde dann offiziell aus dem angeblichen UFO ein Wetterballon. Das wollten bei der Bevölkerung viele einfach nicht glauben. Wie konnte man bei einer ersten Sichtung einen Wetterballon für ein UFO ansehen? So blind oder dumm konnte doch wirklich keiner sein. Also MUSSTE es ein UFO gewesen sein, von dem man nun nichts mehr wissen wollte.

Kurze Zeit später tauchten dann Fotos von angeblichen Außerirdischen aus diesem UFO auf, die auf Seziertischen lagen. Sie sollen heimlich in einem der Gebäude in 'Area 51' aufgenommen worden sein. Wen oder was zeigen diese Bilder aber wirklich? Wer hat sie wo aufgenommen? Oder wie wurden sie vielleicht manipuliert? Es steht sicherlich außer Zweifel, dass sich jemand mit diesen Bildern wichtig machen wollte. Aber was steckte dahinter?

Die abgebildeten "Außerirdischen" sahen ziemlich menschlich aus. Sie waren klein wie Kinder und hatten Gesichter, die denen sehr ähnlich sahen, die man sich damals bei so genannten Marsmenschen vorstellte. Wurden da also irgendwo in einer Pathologie heimlich "außerirdische" irgendwie zusammen gebastelt und dann fotografiert? Wurden vielleicht Leichen von Kindern oder Kleinwüchsigen dazu verwendet? - Ich denke, diese Erklärung erscheint sehr vernünftig.

 

Dieses Ereignis bei Roswell löste eine gigantische Welle von Veröffentlichungen aus, die mit UFOs oder Außerirdischen zu tun hatten. Immer wieder wurde von angeblichen Beobachtungen oder sogar von Begegnungen mit Außerirdischen berichtet. Schließlich kam eine geradezu ungeheuerliche Behauptung aus der Schweiz. Erich von Däniken sagte: Die Götter waren Astronauten. In mehreren Büchern stellte er angebliche archäologische Beweise dafür zusammen. Diese Bücher fanden Weltweit einen reißenden Absatz.

Sicherlich wollte sich Däniken mit seiner Behauptung wichtig machen - so wie ich es mit diesem Buch und meinen Elfen-Geschichten ja auch mache. Tatsache ist jedenfalls, dass in der Archäologie, wie in allen anderen Bereichen der Wissenschaft auch, Dinge, die nicht zu den allgemein anerkannten Theorien oder Erklärungen passen, entweder der Allgemeinheit vorenthalten oder irgendwie weg diskutiert werden. Das hat Däniken in seinen Büchern zweifelsfrei aufgedeckt.

Für mich sind seine außerirdischen Götter daher vor allem ein Mittel, sich interessant zu machen. Wichtig ist aber: Däniken hat da etwas aufgedeckt, worüber in der anerkannten Wissenschaft niemand etwas wissen will. Neben möglichen außerirdischen Astronauten, die irgendwann vor langer Zeit einmal auf die Erde gekommen sein könnten, gibt es nämlich eine viel wahrscheinlichere Erklärung für die Dinge, die Däniken in seinen Büchern aufzeigt.

 

Warum sind wir eigentlich so sehr davon überzeugt, dass wir die erste und einzige hoch entwickelte Zivilisation sind, die es jemals auf der Erde gab? Könnte es nicht vor langer Zeit eine menschliche Zivilisation gegeben haben, die uns bereits weit voraus war? Was wäre nach einem Untergang unserer Zivilisation von uns nach vielen Jahrtausenden noch übrig? - Sicherlich kaum mehr etwas, das unsere technischen Errungenschaften irgendwie dokumentieren würde. Selbst wenn irgendwo Bücher oder Datenträger die Zeit überdauern würden, gäbe es niemanden mehr, der sie lesen könnte.

Könnte die Geschichte über Atlantis vielleicht von einer hoch entwickelten Zivilisation berichten, die lange vor uns existierte? Wirklich beschrieben wird in dieser Geschichte höchst wahrscheinlich ein Vulkanausbruch auf der Insel Santorin, bei dem eine Stadt zerstört wurde und im Meer unterging. Atlantis soll aber viel größer gewesen sein als nur eine Stadt auf einer Insel. Kann sich diese Geschichte also nicht auf etwas beziehen, das sehr viel weiter in der Vergangenheit liegt?

Die anerkannten Wissenschaftler führen das Argument an, dass man keine Knochen von hoch entwickelten Menschen findet, die entsprechend alt sind. Wie viele Knochen würde man aber von einer Zivilisation finden, die ihre Toten verbrennt? Könnte es also sein, dass man nur Knochen von Überlebenden einer globalen Katastrophe findet, die sich bereits mehr oder weniger weit wieder zurück entwickelt und den Kult, ihre Toten zu verbrennen, aufgegeben haben.

Dazu könnten der frühe Homo Sapiens und der offensichtlich primitivere Neandertaler gehören. Diese beiden Formen eines frühen Menschen lebten gleichzeitig, obwohl das einer stetig fort schreitenden Evolution widerspricht. Bei den angeblichen ersten Menschen lange vor dem Neandertaler fehlt nach wie vor das Bindeglied zu den affenartigen Primaten, aus denen sie sich entwickelt haben sollen. Die wenigen Funde, die man dazu anführt, beweisen nicht wirklich etwas.

Könnten diese Frühmenschen nicht einer primitiven Menschenrasse angehören, die irgendwo weit abseits neben der Zivilisation von Atlantis in Afrika und Asien lebte. Sie könnten doch vor sehr langer Zeit von der Zivilisation getrennt worden sein und sich dann noch weiter zurück entwickelt haben als der Neandertaler. Das würde auch erklären, warum wir dieses Bindeglied nicht finden.

 

Warum soll denn die Evolution immer nur vorwärts verlaufen? Unter extremen Lebensbedingungen sind jedenfalls eher Kraft und Widerstandsfähigkeit ein Vorteil bei der Evolution als wissenschaftliche oder technische Kenntnisse. Dann hat vielleicht der behaarte Körper eines Affen eine größere Chance zu überleben als der nackte Körper eines Menschen. Ein großes Gehirn ist dann doch nur unnötiges Gewicht und hat einen viel zu großen Energiebedarf. Wie soll der gedeckt werden, wenn die Nahrung knapp ist?

Nach dem Prinzip der Evolution kann eine Entwicklung abhängig von den Lebensbedingungen sowohl vorwärts als auch rückwärts erfolgen. So könnte sogar der Affe vom Menschen abstammen. Da das Bindeglied, also eine klare Linie von Lebensformen zwischen Mensch und Affe, nie wirklich gefunden wurde, erscheint das jedoch als eher unwahrscheinlich.

Wenn Atlantis als frühe, hoch entwickelte Zivilisation bei einer globalen Katastrophe unter ging, überlebten nicht nur einige Atlanter, sondern mit ihnen auch ein Teil ihrer Technik. So wie sich unsere Zivilisation praktisch über die gesamte Erde erstreckt, wird auch Atlantis mit den Menschen auf der gesamten Erde in enger Verbindung gestanden haben. In Gegenden, die bei der Katastrophe weitgehend zerstört wurden, entwickelten sich die Menschen zum Neandertaler und frühen Homo Sapiens zurück. In Gegenden, die von der Katastrophe weitgehend verschont blieben, konnten sie aber zusammen mit der Technik der Atlanter überlebt haben.

Was gehörte zu der Technik der Atlanter? Gab es da vielleicht Flugzeuge oder sogar interstellare Raumschiffe? Kannten die Atlanter bereits Funk, Radar oder Echolot? Nutzten sie vielleicht die Atomkraft zur Energiegewinnung? Warum sollen die Atlanter nicht das alles gekonnt und gewusst haben, was wir heute können und wissen? Vielleicht konnten und wussten sie ja noch viel mehr. Dann waren die Götter vielleicht wirklich Astronauten - nur keine außerirdischen, sondern ganz und gar irdische.

 

Wenn es sich so zugetragen hat, wie vorstehend beschrieben, sind wir direkte Nachfahren des frühen Homo Sapiens und des Neandertalers - so wie es auch aktuelle Untersuchungen des Erbgutes bestätigen. Was wurde aber aus den Atlantern, die die Katastrophe überlebt hatten? Sie vermischten sich wahrscheinlich mit den anderen Menschen, bei denen Teile der atlantischen Technik erhalten geblieben waren. Während sich die übrigen Menschen in Richtung Neandertaler zurück entwickelten, behielten sie ihr Wissen und ihre Technik. Diese verbargen und schützen sie vor den anderen.

Dabei suchten sie sich Lebensräume, die von den übrigen Menschen gemieden wurden, wie beispielsweise hohe Berge oder Orte irgendwo in einer Wüste. Bei den Griechen lebten die Götter auf dem Olymp. Moses traf Gott - Jahwe oder Jehova, den alleinigen Gott der Juden - auf einem Berg in der Wüste Sinai. Der war umgeben von Engeln oder himmlischen Heerscharen. Das waren die anderen Menschen seines Volkes. Nur Jahwe oder Jehova, deren Oberhaupt, durfte als Gott bezeichnet werden. Auch andere überlegene Völker durften die Juden nicht als Götter verehren.

Eine Gruppe von Menschen, die den anderen mit ihrem Wissen und ihrer Technik weit überlegen war, konnte leicht den Status von Göttern erlangen. In diesem Zusammenhang macht es auch Sinn, dass es in allen Kulturen Opfergaben für die Götter gab, die ihnen auf einem Altar präsentiert wurden. So gut wie immer handelt es sich bei diesen Gaben um etwas essbares - Produkte der Ackerbaues oder Opfertiere. Also ließen doch diese selbst ernannten "Götter" die anderen Menschen für ihren Lebensunterhalt arbeiten und drohten mit ihrem "Zorn" - also mit Bestrafung - wenn sie das nicht tun wollten. Was auf die Menschen beim Zorn Gottes oder der Götter zu kam, kann man im Alten Testament der Bibel an verschiedenen Stellen nachlesen.

 

Für einen gläubigen Christen ist das vorstehende - wie schon Dänikens Bücher - sicherlich eine ungeheuerliche Ketzerei. Wo ist aber dieser eine allmächtige Gott? Irgendwo im Himmel? Da haben wir doch bis nahe an den so genannten Urknall heran alles gründlich erforscht und keinen Gott gefunden. Es bleibt also nur noch die Vorstellung eines metaphysischen Gottes, der unser Schicksal auf rein geistiger Ebene lenkt. Für einen solchen Gott zeige ich in diesem Buch sogar eine naturwissenschaftliche Erklärung, auch wenn ich dabei nicht von Gott, sondern von einem 'universellen Prinzip der Schöpfung' spreche. Es gibt eine geistige oder telepathische Verbindung zwischen allen Lebewesen im Universum.

Damit ist alles Wissen der Welt - oder die Allwissenheit Gottes - jedem Lebewesen auf geistiger Ebene zugänglich. Wenn man es so betrachtet, glaube auch ich als überzeugter Heide an Gott. Nur ist dieser Gott nicht Jahwe oder Jehova, der Gott der Juden, von dem in der Bibel berichtet wird, sondern er steht für das, was in der Natur das Leben und jede andere Erscheinungsform von Wachstum und Entwicklung ausmacht.

Kommen wir zur Bibel zurück. Dort wird ganz konkret von Gott als einer Person berichtet. Er ist der 'Herr' und nicht irgend etwas metaphysisches. In der christlichen Lehre gibt es allerdings mit dem 'heiligen Geist' und der 'Dreifaltigkeit' bereits eine metaphysische Sichtweise. Noch ausgeprägter ist diese dann im Islam. Offensichtlich traf man zur Zeit Jesu und danach nicht mehr mit Göttern als Personen zusammen, und Gott rückte immer mehr in den Bereich des unsichtbaren und unfassbaren. Dabei wurde auch aus ursprünglich vielen Göttern ein einziger allmächtiger Gott. Trotzdem spricht man aber bei Jesus von 'Gottes Sohn'. Und im Alten Testament ist Gott oder Jahwe oder Jehova eindeutig eine Person. Gott führte das jüdische Volk aus der Knechtschaft in Ägypten. Er sprach mit Moses und überreichte im persönlich die Tafeln mit den zehn Geboten.

Das sind keine rein geistigen Erscheinungen wie beispielsweise bei Mohammed, als er von Allah den Koran empfing. In anderen Religionen, wie beispielsweise dem Hinduismus, wird über die Götter noch viel eindeutiger als Personen berichtet. Dort sind es auch nach wie vor viele und nicht nur einer. Das alles spricht doch sehr dafür, dass die Götter ursprünglich Überlebende der Katastrophe von Atlantis gewesen sein könnten, wobei hier 'Atlantis' ganz allgemein für eine Hochkultur steht, die irgendwann lange vor unserer Zeitrechnung existierte.

 

Mit dem Vorstehenden gibt es jedenfalls eine sehr plausible Erklärung dafür, warum die Religionen immer wieder als Mittel zur Unterdrückung der Menschen missbraucht werden, obwohl doch viele Staaten heute demokratisch geführt werden. Da wird Angst geschürt, - vor Gottes Zorn, vor der Hölle oder vor der ewigen Verdammnis - und schon machen die Gläubigen alles genau so, wie es die Priester gerne hätten. Dann ist es praktisch für die Reichen und Mächtigen, wenn sie diese Priester mit großzügigen Spenden auf ihre Seite bekommen können.

So wird es am Ende "Gottes Wille", wenn man den Menschen Unrecht antut. Und je dümmer - Entschuldigung: je weniger gebildet - die Gläubigen sind, desto besser funktioniert es. Wie soll aber eine Demokratie funktionieren, wenn man viele Wähler so leicht manipulieren kann? Die Priester sagen im Interesse der Mächtigen, was richtig oder der "Wille Gottes" ist, und das Volk wählt entsprechend. So etwas ist doch keine Demokratie, sondern eine "frei" gewählte Diktatur.

 

Kommen wir nun zu dem zurück, was zum Thema Parawissenschaften und ähnlichen Themen alles veröffentlicht wird. Seit mit den Göttern als Astronauten offensichtlich eine Verschwörung der Wissenschaftler im Bereich der Archäologie aufgedeckt worden war, gibt es geradezu eine Flut von Büchern, in denen von allen erdenklichen Verschwörungen berichtet wird. Interessant ist dabei alles, was irgendwie geheim ist. Geheimbünde wie die Freimaurer, 'Skull And Bones' oder die Illuminaten setzen dabei offensichtlich der Phantasie keine Grenzen.

Da die Religionen und ihre Vertreter immer mehr Einfluss verlieren, muss es doch irgendwie andere Möglichkeiten geben, das Volk zu manipulieren und zu unterdrücken - und das am besten so, dass möglichst wenige etwas davon mit bekommen. Irgend etwas geheimes zu erfahren, ist immer interessant.

Die Frage ist allerdings, was von dem, was da so berichtet wird, wirklich wahr ist. Oft werden Quellen angeführt, die der normale Leser niemals überprüfen kann. Was kann man also von dem glauben, was uns da präsentiert wird? Es steht sicherlich außer Zweifel, dass es Verschwörungen gibt und auch schon immer gab. Gibt es aber wirklich eine weltweite und völlig geheime Verschwörung aller Mächtigen, wie immer wieder behauptet wird?

 

Als Beweise für die angeführten Theorien zu den Verschwörungen werden entweder bekannte Ereignisse angeführt, oder es werden Dinge behauptet, wie sie ungeheuerlicher kaum sein können. Je unglaublicher etwas erscheint, desto interessanter ist es offensichtlich. Nachfolgend führe ich einige Beispiele dazu kurz auf. Es sind nur einige wenige von vielen, die ich im Hinblick auf die Parawissenschaften ausgewählt habe.

Da wird beispielsweise von Tunneln berichtet, die angeblich die gesamten USA oder sogar die gesamte Erde umspannen. Im Falle einer globalen ökologischen Katastrophe oder eines Atomkrieges soll sich eine selbst ernannte "Elite" in diese Tunnel zurück ziehen und darauf warten wollen, dass die Oberfläche der Erde wieder bewohnbar wird. Dabei sollen die neuen Tunnel nur eine Erweiterung eines bereits bestehenden weltweiten uralten Tunnelnetzes sein, in dem sich schon einige Atlanter vor dem Untergang ihrer Zivilisation gerettet haben sollen.

Als "Beweis" dafür führt man unter anderem Tunnel an, die man in Ägypten bei den Pyramiden entdeckt hat. Angeblich darf niemand erfahren, wo diese endlos langen unterirdischen Gänge hin führen. In den Tunneln soll es alles geben, was für ein langfristiges Überleben notwendig ist: Anbau von Pflanzen unter künstlichen Licht und jede Menge geheimnisvolle Technik. Als Energiequelle wird 'freie Energie' genannt, die aus einer 'Vril-Kraft' aus dem Inneren der Erde stammen soll. Als Zentrum dieses geheimen Tunnelnetzes wird 'Area 51' genannt.

 

Es gibt einige Fotos und ein paar Skizzen von Flugscheiben oder fliegenden Untertassen, die angeblich im Rahmen eines geheimen Projektes von den Nazis gebaut und getestet worden sein sollen. Das steht in engem Zusammenhang mit dem ebenfalls geheimen Projekt 'Glocke', bei dem es gelungen sein soll, mit magnetischen Kräften die Schwerkraft aufzuheben. Die physikalischen Zusammenhänge dazu werde ich in Kapitel 3.4 zu Viktor Schaubergers 'Repulsine' und 'fliegenden Untertasse' beschreiben. Das steht wiederum in Zusammenhang mit der Elektro-Gravitation, für die ich in Kapitel 2.3 einen theoretischen Berechnungsansatz vorstelle.

Schauberger soll zumindest bei dem Projekt 'Glocke' beteiligt gewesen sein, bevor er sich von der - wie er selbst sagte - für seine Technik noch nicht reifen Welt abwendete und schließlich sein gesamtes Wissen mit ins Grab nahm. Skizzen gibt es zu den Flugscheiben 'Vril' und 'Haunebu' und einem zigarrenförmigen Fluggerät, das 'Andromeda' genannt wurde. Die Fotos zeigen die Flugscheiben hoch in der Luft. Sicherlich kann im Prinzip jeder irgendwelche Skizzen zeichnen, und Fotos mit fliegenden Untertassen kann man leicht herstellen, indem man entsprechende kleine Modelle hoch in die Luft wirft und dann fotografiert.

Also beweisen weder die Skizzen noch die Fotos irgend etwas. Die Paraphysik kann aber zeigen, wie diese Flugscheiben funktioniert haben könnten. Auch zu diesen Fluggeräten kursieren die abenteuerlichsten Gerüchte, wie zum Beispiel Außerirdische, die ihr Wissen zu deren Konstruktion beigesteuert haben sollen.

Zudem sollen einige Nazis mit diesen Fluggeräten und anderer geheimer Technik am Südpol unter dem Eis einen Stützpunkt eingerichtet haben, wo sie nur darauf warten, die ganze Welt zu überfallen und so die Weltherrschaft zu erlangen. Die zuvor erwähnten Tunnelbauer sollen natürlich auch im Besitz solcher Fluggeräte sein.

 

Als weiteres Beispiel möchte ich hier das Philadelphia-Experiment anführen, an dem Nikola Tesla beteiligt war, der mit der Entdeckung des Wechselstroms zum Wegbereiter für unsere heutige Energietechnik wurde. Alle Unterlagen zu diesem Projekt der US-Marine unterliegen bis heute strengster Geheimhaltung. Bei diesem Projekt ging es darum, ein Schiff mit Hilfe eines unter extreme Hochspannung gesetzten Drahtgeflechtes unsichtbar zu machen. Nach den Aussagen einiger Beteiligten wurde das Schiff auch zunächst unsichtbar. Dann verschwand es aber plötzlich vollständig und wurde kurze Zeit später an einem weit entfernten Ort wieder gesichtet.

In der kurzen Zeit hätte ein Schiff die Strecke dort hin niemals zurück legen können. Bei der Besatzung waren viele zu Tode gekommen und die übrigen hatten schwere Verletzungen erlitten. Nach den Aussagen einiger Überlebender war das Schiff von gigantischen unbekannten Kräften hin und her gerissen worden. Auch zu diesem Vorfall kursieren die abenteuerlichsten Gerüchte. So soll bei diesem Experiment eine Art Riss im Raum-Zeit-Kontinuum entstanden sein, in dem bald die ganze Erde für immer und ewig verschwinden könnte. In diesem Zusammenhang möchte ich an das künstliche schwarze Loch erinnern, das angeblich im CERN entstehen kann.

 

Es gibt Behauptungen, die noch ungeheuerlicher sind als das vorstehende. Angeblich ist die Erde hohl und in ihrem Inneren bewohnt. Am Nord- und Südpol soll es recht große Öffnungen geben, die in diesen inneren Lebensraum hinein führen. Alle Satellitenbilder der polaren Regionen werden daher angeblich abgefangen und manipuliert, bevor sie für die weitere Verwendung bereit gestellt werden. In der Paraphysik ergibt sich aus dem Wirbelprinzip tatsächlich, dass alle Planeten hohl sind und in ihrem Zentrum eine kleine Sonne besitzen.

Nur Polöffnungen und ein bewohntes Inneres erklärt die Paraphysik nicht. Bei der Energie, die eine kleine Sonne im Zentrum ausstrahlt, kann es auf der Innenseite der Hohlschale eigentlich nur einen heißen See aus flüssigem Magma geben, was sehr gut mit allem zusammen passt, was wir über das Innere der Erde wissen. In Kapitel 2.2 wird das Wirbelprinzip und alles, was sich daraus ergibt, ausführlich beschrieben. Dabei geht es auch darum, ob es möglicherweise Polöffnungen und ein bewohntes Inneres geben könnte oder nicht.

 

Wie ich es in den Beispielen schon andeute, steckt offensichtlich in jedem dieser Gerüchte irgendwie ein wahrer Kern. In der Wissenschaft ist schon lange bekannt, dass wir über sehr lange Zeiträume betrachtet auf unseren Planeten nicht wirklich sicher sind. Selbst wenn man von einer möglichen selbst herbei geführten ökologischen Katastrophe einmal absieht, kann durchaus ein plötzliches Ereignis die Erde für uns unbewohnbar machen. Es wird zwar hartnäckig behauptet, dass wir den Klimawandel mit Treibhausgasen wie CO2 selbst herbei führen, aber es hat im Laufe der Erdgeschichte immer wieder sehr starke Schwankungen im Klima innerhalb kurzer Zeit gegeben.

Eins dieser Ereignisse war sehr früh in der Zeit der Dinosaurier. Damals hat es noch keine Menschen gegeben - auch wenn man davon ausgeht, dass es mehrere menschliche Hochkulturen lange vor unserer Zeit gegeben hat. Treibhausgase, ein Atomkrieg oder ähnliches scheiden also als Ursache aus. Nach allem, was man herausfinden konnte, muss damals ein extrem heftiger Vulkanausbruch einen großen Teil des Lebens auf der Erde ausgelöscht haben.

 

Es ist außerdem bekannt, dass der vor etwa 65 Millionen Jahren der Einschlag eines sehr großen Asteroiden im Golf von Mexiko das Aussterben der Dinosaurier verursacht hat. Extrem heftige Vulkanausbrüche oder der Einschlag eines sehr großen Asteroiden sind zwar sehr unwahrscheinlich, aber auch heute nicht ausgeschlossen. Es könnte sich also bereits ein riesiger Asteroid auf direktem Kurs zur Erde befinden. Diesen mit Hilfe eines Raumschiffs zu zerstören oder von seinem Kurs abzulenken, kann mit unserer heutigen Technik nur in einem Science-Fiction-Film gelingen.

Was sollen wir also machen, wenn so ein Asteroid plötzlich auftaucht oder ein gewaltiger Vulkanausbruch für Monate oder Jahre auf der gesamten Erde Dunkelheit und Kälte herbei führt? Wäre es da nicht sinnvoll, wenn sich einige wenige Menschen mit unserer gesamten Technik in Tunnel zurück ziehen und dort abwarten würden, bis die Bedingungen auf der Erdoberfläche unser gewohntes Leben wieder ermöglichen?

Ich denke dabei zunächst einmal daran, dass vor allem das gesamte Wissen über unsere Technik erhalten bleibt, und so nach der Katastrophe ein schneller Wiederaufbau möglich ist. Die "Elite", die sich dann in die Tunnel rettet, muss natürlich vor allem aus Wissenschaftlern und Technikern bestehen. Für eine große Anzahl Menschen kann man nicht genügend Tunnel mit der notwendigen Technik darin bereit stellen. Es sollte aber möglich sein, auf diese Weise das Wissen der menschlichen Zivilisation zu retten.

 

Was würde aber im Falle einer Katastrophe passieren, wenn die Existenz dieser Tunnel und die Lage der Eingänge bei allen Menschen bekannt wären? - Es würde doch eine riesige Anzahl Menschen in Panik in diese Tunnel drängen. Dabei gäbe es doch nur Mord und Totschlag, und schließlich würde die Rettungsaktion scheitern.

Solche Tunnel können doch nur ihren Zweck erfüllen, wenn deren Existenz und vor allem die Lage der Eingänge streng geheim gehalten werden. Unter diesem Aspekt ist es also mehr als nur wahrscheinlich, dass solche Tunnel existieren. Und genau so wahrscheinlich ist es, dass es auf der gesamten Erde solche Tunnel gibt.

Mit der Raumfahrt sind wir noch lange nicht so weit, dass weit entferne Planeten in unserem oder einem anderen Sonnensystem das Überleben bei einer Katastrophe ermöglichen. Trotzdem gibt es bei Wissenschaftlern ernsthafte Überlegungen, die in diese Richtung gehen. Vielleicht ist diese Möglichkeit aber bei anderen Zivilisationen irgendwo weit draußen im Weltraum, die weiter entwickelt sind als wir, ein verbreitetes Konzept.

Es ist ja schließlich auch ein Szenario denkbar, bei dem ein Planet wie die Erde vollständig zerstört wird. In einigen Milliarden Jahren wird beispielsweise unsere Sonne ihren Kernbrennstoff verbraucht haben und sich zu einen roten Riesenstern ausdehnen. Dabei wird dann die Erde mit allem Leben auf ihr zerstört.

Bei uns sind es bis dahin noch mehrere Milliarden Jahre. Wie könnte es aber bei einer sehr hoch entwickelten Zivilisation irgendwo weit draußen im Weltraum aussehen? Unter diesem Blickwinkel wäre es gar nicht so unwahrscheinlich, dass die Götter wirklich außerirdische Astronauten waren, wie es Däniken behauptet.

Sie könnten sich auf der Erde vor einer nicht abwendbaren globalen Katastrophe auf ihrem Heimatplaneten gerettet haben. Falls dieser Planet dabei nicht völlig zerstört wurde, wären sie auch irgendwann nach hause zurück gekehrt, um dort alles wieder aufzubauen.

 

Natürlich kann man an eine Verschwörung glauben, bei der "Nazis", Illuminaten oder ähnliche Gruppierungen, die sich für eine "überlegene Rasse" halten, das Leben auf die Erde mit einer ökologischen Katastrophe oder einem Atomkrieg auslöschen wollen, um dann später eine Art "tausendjähriges Reich" aufzubauen. Muss das aber wirklich die einzige oder wahre Absicht für solche geheimen Tunnel oder einen Stützpunkt unter dem Eis der Antarktis sein?

Sicherlich werden sich auch Menschen in die Tunnel retten wollen, die nur Ausbeutung und Unterdrückung im Sinn haben. Aber ohne die Hilfe der Wissenschaftler werden sie dort nicht überleben können. Vielleicht haben wir ja auch einmal "Glück", und diese Leute rotten sich in der Enge der Tunnel gegenseitig aus, während die Wissenschaftler zusammen halten und ihr Ziel gemeinsam angehen.

Jedenfalls haben wir heute die Technik, mit der man solche Tunnel bauen kann. Und warum sollen lange vor uns die Atlanter eine solche Technik nicht auch gehabt haben? Wir schieben heute jedenfalls einen immer gewaltiger werdenden Berg an ungelösten Problemen vor uns her: eine grenzenlose Ausbeutung der Ressourcen mit den entsprechenden Folgen für die Umwelt und das Klima, Überbevölkerung, Armut, Hunger, Krieg, Berge von Atommüll und die Gefahr einer atomaren Selbstzerstörung.

Das genannte ist dabei nur, wie man sagt, die Spitze des Eisbergs. Da liegt es schon irgendwie nahe, dass einige vielleicht über eine ganz große "Endlösung" nachdenken. Dabei lehrt uns doch die Geschichte, dass irgendwelche "Endlösungen" nur neue Probleme schaffen und die bestehenden nicht lösen. Nach Däniken war bereits die Sintflut eine solche "Endlösung" der außerirdischen Götter, die ihren Zweck nicht erfüllte.

 

Meiner Meinung nach sollte man erst einmal die Ursache für alle diese Probleme heraus finden und dann nach Lösungen suchen. Warum vermehren sich beispielsweise die Menschen so explosionsartig? - Die Antwort ergibt sich ganz einfach aus dem Prinzip der Evolution: Je schlechter es einer Art oder Rasse geht, desto stärker vermehrt sie sich. Beim Sex ist unser Verstand, auf den wir uns immer so viel einbilden, nämlich komplett ausgeschaltet. Und wenn die Kinder verhungern, dann müssen es eben ganz viele sein, damit genügend von ihnen überleben.

Das ist zwar nicht logisch, aber als Prinzip der Evolution in den Gehirnen aller Lebewesen fest eingebrannt. Wenn es uns also nicht gelingt, Armut und Hunger weltweit abzuschaffen, werden wir dieses Problem NIEMALS lösen. Geburtenkontrolle oder ähnliche Maßnahmen schaffen nur neue Probleme. Man denke dabei an die vielen verhätschelten Einzelkinder in China, die ihren Platz in der Gesellschaft irgendwie nicht finden.

 

Was treibt uns also in diese Katastrophe, die scheinbar niemand mehr verhindern kann? - Es ist doch nichts anderes als die Gier nach Geld und Macht! Unser Geldsystem, das auf Zins und Zinseszins aufbaut, erfordert eine stetig wachsende Wirtschaft. Aber so, wie ein Baum nicht in den Himmel wachsen kann, ist auch das Wachstum eines Wirtschaftssystems begrenzt. Irgendwann wird eine Grenze erreicht.

Dann braucht es einen Zusammenbruch, damit alles wieder von vorne anfangen kann. Nur deshalb wird ständig irgendwo Krieg geführt. Letztlich arbeiten dabei die Menschen für einen Wiederaufbau, damit schließlich irgendwann alles wieder zerstört wird.

Oder es wird ein überflüssiger Luxus mit kurzlebigen Produkten geschaffen. Handys oder Computer sind oft schon nach zwei Jahren total veraltet und landen auf dem Müll. Dazu trägt auch eine Technik bei, die solche Geräte mit primitiv ausgeführten Miniatur-Steckerchen und ähnlichem schnell unbrauchbar macht.

Ein verbogenes Drähtchen erzeugt dann leicht einen Kurzschluss und die empfindlichen Schaltkreise sind dahin. So etwas erfreut jedenfalls nur den Hersteller. Es regt sich aber auch kaum jemand darüber auf, da ein Gerät meistens schon "veraltet" ist, wenn es kaputt geht.

 

Die große Anzahl neuer Produkte und der Wiederaufbau nach den Kriegen lassen die Ressourcen immer knapper werden, und immer mehr Natur wird zerstört. Schauberger spricht im Zusammenhang mit der Ausbeutung der Natur und einer seiner Ansicht nach falschen Anwendung der Technik von unserer sinnlosen Arbeit. Mit dem ständigen Wachstum der Wirtschaft arbeiten die Menschen aber auch letztlich nur für die Mülltonne oder für eine Zerstörung bei einem Krieg. Also ist auch diese Arbeit sinnlos.

Ohne dieses ständige Wachstum könnten wir uns einfach auf das sinnvolle und notwendige beschränken und dabei das Leben genießen. Hat Schauberger nicht recht mit unserer sinnlosen Arbeit, auch wenn es hier um das Wirtschaftssystem und nicht um das Wirken gegen die Natur im allgemeinen geht? Ein System der rücksichtslosen Ausbeutung ist doch gegen die Natur, oder etwa nicht?

 

Abschließend möchte ich in diesem Kapitel noch den so genannten Josefspfennig anführen, bevor es mit Beschreibungen und Erklärungen zur Paraphysik an das geht, was dieses Buch eigentlich vermitteln soll. Nun zum Josefspfennig: Wenn sich Josef, also der Vater Jesu, vor ungefähr zweitausend Jahren mit nur einem Pfennig verschuldet hätte, dann wäre daraus ohne Zahlung der Zinsen bei nur drei Prozent Jahreszins bis heute mit Zins und Zinseszins ein Schuldenberg heran gewachsen, der größer wäre als die Menge des gesamten Geldes in der Welt! Das kann man mit der gebräuchlichen Diskontierungsformel einfach nachrechnen (Ergebnis in Deutsche Mark, auf 10 gültige Stellen aufgerundet):

 

0,01 x (1+0,03)2000 = 472.551.787.600.000.000.000.000

 

Eindrucksvoll, nicht wahr?

 

Daraus kann man doch nur schließen, dass wir dieses Geldsystem und das Prinzip der Ausbeutung mit unserer sinnlosen Arbeit unbedingt abschaffen müssen, wenn wir als hoch entwickelte Zivilisation langfristig überleben wollen. Wenn es irgendwelche Zivilisationen da draußen im Weltraum geben sollte, die uns weit überlegen sind und schon sehr lange existieren, kann es meiner Meinung nach bei ihnen ein solches Geldsystem und diese damit verbundene sinnlose Arbeit nicht geben. Aber davon werden wir wohl so schnell nichts erfahren. Keine wirklich hoch entwickele Zivilisation wird irgendwie ein Interesse daran haben, Kontakt mit uns aufzunehmen - oder haben Sie vielleicht Interesse daran, mit einem Ameisenhaufen Kontakt aufzunehmen?

Neben einer Botschaft in einer Sonde, die unser Sonnensystem verlassen hat, schicken wir ständig mehr als genug Bilder und Geräusche per Funk in den Weltraum. Wer aber dort unsere Radio- und Fernsehprogramme empfängt, wird wohl so entsetzt sein, dass er mit seinem Interstellaren Raumschiff einen großen Bogen um unser Sonnensystem macht - oder setzen Sie sich vielleicht gerne auf einen Ameisenhaufen? Dass Außerirdische auf der Erde vorübergehend eine neue Heimat suchen, ist ungefähr genau so unwahrscheinlich wie ein sehr großer Asteroid, der gerade auf die Erde zu rast. Also wird es wohl in absehbarer Zeit zu keinem Kontakt mit Außerirdischen kommen.

2. Beschreibungen und Erklärungen

Verschwörungen und die Zustände in unserer Gesellschaft sind nicht das Thema dieses Buches. Deshalb bleibt es auch bei der vorstehenden knappen Einführung. Nach einigen allgemeinen Anmerkungen zur Paraphysik geht es in den nachfolgenden Kapiteln um Resonanz, das Wirbelprinzip, Kernfusion, Elektro-Gravitation, das Universum und den Aufbau der Atomkerne und der Elektronenschalen.

Dabei wird immer wieder von so genannter 'freier Energie' gesprochen, die in allen Stoffen der Materie enthalten ist und kostenlos gewonnen werden kann, wenn man die damit verbundenen physikalischen Zusammenhänge vollständig und richtig versteht. Nach dem 'Prinzip der gegensätzlichen Pole' oder 'Prinzip der Nullsumme' des Zeitschalenmodells steckt diese Energie in einem Gleichgewicht aller Kräfte im Universum. Nur so kann das Universum als perpetuum Mobile ewig existieren. Schauberger schreibt dazu folgendes:

 

"In jedem Tropfen guten Quellwassers sind mehr Kräfte vorhanden als ein mittleres Kraftwerk der Gegenwart zu erzeugen vermag. Diese Energien sind mühe- und nahezu kostenlos zu gewinnen, wenn wir die Wege gehen, die die Natur uns ständig weist und die Irrwege verlassen, die unsere heutige Technik verfolgt. Glück und Gesundheit stehen uns ebenso wie unbegrenzte Energiemengen nahezu kostenlos zur Verfügung, wenn wir einmal erkennen, dass im Wasser, im Blute der Erde, der Wille und sein Widerstand, das Leben, wohnt, um das wir heute so schwer kämpfen, weil wir diesem Träger des Lebens durch unser Handeln ständig das Edelste nehmen: seine Seele. Der Wille der Natur ist der dem Ganzen dienende, im Wege der Atomzerlegung und Atomverwandlung vor sich gehende Aufbau. Sein Widerstand ist unsere eigensinnige atomzertrümmernde Arbeit, der egoistische Raubbau an der Natur. ..."

 

Wenn Ihnen diese Worte nun eher wie die eines Propheten und nicht wie die eines Wissenschaftlers vorkommen, liegt es wohl daran, dass Schauberger sich nicht von einer "falschen Wissenschaft" in die Irre führen lassen wollte und, statt Technik oder Physik zu studieren, den Beruf eines Försters erlernte. Steckt aber in diesen Worten nicht letztlich die selbe Aussage wie in meinem vorstehenden Kapitel?

Nun habe ich mich als Ingenieur "in die Irre führen lassen" und vermutlich deshalb mit Schaubergers Sprache ähnlich zu kämpfen, wie Sie vermutlich als Leser. Aber gibt es diese gewaltige Energie, die in einem Tropfen Wasser stecken soll, nicht wirklich? Ist sie nicht die Energie aus der Kernfusion des Wasserstoffs zu schweren Elementen, die unsere Sonne schon vier Milliarden Jahre lang scheinen lässt? Und hat eine ganzheitliche Medizin nicht etwas mit Glück und Gesundheit zu tun?

Und wie ist es mit der Seele? Was ist eine universelle schöpferische Kraft, die in der gesamten Materie enthalten und allen Lebewesen auf geistiger Ebene zugänglich ist, wie ich sie nachfolgend beschreiben werde? Und wie sieht es bei der Atomenergie mit der Kernspaltung im Vergleich zur Kernfusion aus?

 

Schauberger verfasste viele Texte in seiner uns heute eigenwillig erscheinenden Sprache. Sie beschreiben immer nur das seinen technischen Umsetzungen zu Grunde liegende Prinzip. Alle technischen Daten oder Zusammenhänge, die man für eine Nutzung seiner Erfindungen oder Nachbauten benötigt, nahm er aber, wie ich bereits erwähnte, mit in sein Grab.

Die Menschheit ist seiner Meinung nach noch nicht reif für seine Erkenntnisse und würde sie nur missbrauchen und so einen großen Schaden anrichten. Vermutlich haben seine Erfahrungen mit den Nazis, der zweite Weltkrieg und der Abwurf der Atombomben in Hiroshima und Nagasaki stark zu dieser Ansicht beigetragen.

 

Ähnlich wie mit Schauberger ist es mit vielen anderen Parawissenschaftlern, die sehr unterschiedliche Ausbildungen haben und sich in der Regel als Amateure mit den Parawissenschaften beschäftigen. Da kommt es häufig vor, dass man irgendwie nicht die selbe Sprache spricht. Hinzu kommt, dass man oft fürchtet, andere könnten mit dem veröffentlichten Wissen ein großes Geschäft machen. Deshalb hält man sich mit Details und genauen Angaben zu Auslegungen und Berechnungen gerne zurück.

Sicherlich könnte man Patente anmelden. Das kostet aber viel Geld und macht gleichzeitig eine Anwendung der gezeigten technischen Möglichkeiten für einen Unternehmer absolut uninteressant. Die Erfahrung zeigt, dass nur sehr selten jemand bereit ist, über einen möglichen Lizenzvertrag überhaupt nur zu verhandeln. Wer also nicht in der Lage ist, seine Entdeckungen selbst zu vermarkten, hält lieber wichtige Teile seines Wissens zurück, als dass er viel Geld in einen zweifelhaften Patentschutz investiert. Leider muss ich das auch so machen. So helfen Patente vor allem den großen Konzernen, wenn sie ihre eigenen Ideen schützen wollen.

 

Wenn man also versucht, aus den Veröffentlichungen anderer seine Schlüsse zu ziehen, verschwendet man viel Zeit mit der Suche nach den nicht genannten Details und Zusammenhängen. Die verborgenen Informationen muss man sich dabei mit viel Erfahrung und Schlüssen aus der eigenen Sichtweise selbst erarbeiten. Eine irgendwie gezielte Vorgehensweise ist so kaum möglich. Oft hilft einem da eine Erkenntnis aus einem völlig anderen Zusammenhang weiter.

So springt ein Parawissenschaftler üblicherweise ständig zwischen verschiedenen Themen hin und her. Das mag zwar den ganzheitlichen Gedanken widerspiegeln, ist aber letztlich nur wenig effektiv. Dazu kommen noch die vielen Veröffentlichungen, bei denen sich jemand einfach nur wichtig machen will. Wenn die intelligent gemacht sind, kann viel Zeit vergehen, bis man deren wahre Absicht erkennt. - Nun sei es aber erst einmal genug mit dieser ewigen Nörgelei.

2.1 Das Prinzip der Resonanz

Auf dieses Prinzip bin ich bei der Suche nach dem Übertragungsweg der Telepathie mit dem Zeitschalenmodell schon recht früh gestoßen. Statt mich aber mit der Resonanz selbst zu beschäftigen, suchte ich erst einmal mit den Methoden der Quantenmechanik nach einem möglichen Austauschteilchen der Gedankenübertragung. Aus meinen damaligen Erkenntnissen schloss ich, dass dieses unbekannte Teilchen dem Neutrino, einem masselosen atomaren Teilchen, das alle Materie durchdringt, sehr ähnlich sein müsste. Erst später entdeckte ich das, was Tesla zum Thema Resonanz heraus gefunden hat. Er brachte es fertig, sehr große Energiemengen von einem Sender zu einem Empfänger über große Entfernungen drahtlos zu übertragen.

Dazu müssen nur zwei spezielle Schwingkreise auf die selbe Frequenz abgestimmt werden. Wenn so etwas sogar mit einer großen Energiemenge möglich ist, sollten sich die Informationen von Gedanken doch auf eine ähnliche Weise übertragen lassen. Warum sollen die Nervenzellen in einem Gehirn nicht wie solche Schwingkreise wirken und in Resonanz geraten können? Dann braucht es gar kein spezielles atomares Teilchen für die Telepathie. Die Übertragung erfolgt dann wie beim Funk über das elektromagnetische Feld, wobei der benötigte Gleichtakt der beiden Gehirne ausschließlich mit der Resonanz zustande kommt.

 

Bevor ich auf den Übertragungsweg der Telepathie zurück komme, geht es erst einmal um die drahtlose Energie-Übertragung nach Tesla. Wenn man bedenkt, dass man bei einem Radio- oder Fernsehgerät einen leistungsfähigen Verstärker benötigt, um die gesendeten Informationen aus dem nur schwach empfangenen Funksignal heraus zu bekommen, erscheint es sehr seltsam, dass es möglich sein soll, Energiemengen in der Größenordnung der Leistung eines Kraftwerkes drahtlos zu übertragen. Dabei nutzen sowohl Funk als auch Teslas Energie-Übertagung das Prinzip der Resonanz.

Beim Radio oder Fernsehen soll aber der Empfänger nur die Information erhalten und keine Energie aus dem Sender heraus ziehen. Deshalb wird nur ein schwaches Signal aus der Antenne genutzt und einem Verstärker zugeführt. So hält sich die vom Sender abzustrahlende Energie bei vielen Empfängern in vernünftigen Grenzen.

 

Eine Anlage zur drahtlosen Energie-Übertragung nach Tesla besteht im Prinzip aus je einem Tesla-Transformator mit einem Kugelkondensator als Antenne für den Sender und den Empfänger. Tesla verwendete bei seinen Versuchen gerne einen Thoroid als Antenne, da dieser bei gleichem Volumen eine erheblich größere Oberfläche und damit eine größere Kapazität besitzt als eine Kugel.

Ein Tesla-Transformator besitzt keinen Eisenkern und kann daher mit theoretisch beliebig hohen Frequenzen betrieben werden. Bei einem normalen Transformator würde bei hohen Frequenzen der größte Teil der Energie in den Eisenkern übergehen und diesem nach dem Prinzip eines Induktionsofens aufheizen.

Da der Eisenkern fehlt, kann ein Tesla-Transformator nur dann funktionieren, wenn die Spulen eine spezielle Form haben, wobei die Primärspule um die Sekundärspule herum angeordnet wird. Wenn sehr hohe Spannungen - bis zu mehreren Millionen Volt - erzeugt werden sollen, steht die Sekundärspule als lange zylindrische Spule mit dem Kugelkondensator an ihrem oberen Ende in der Mitte, und die Primärspule umgibt sie recht weiträumig als Tesla-Flachspule an ihrem unteren Ende, das geerdet ist.

So ergibt sich eine ausreichende Koppelung der beiden Spulen, wobei die großen Abstände und die Erdung Funken-Überschläge bei den extrem hohen Spannungen verhindern. Zur Energie-Übertragung verwendete Tesla zwei umeinander herum angeordnete Flachspulen, da die Spannungen dabei nicht so extrem hoch waren. So ergibt sich eine erheblich bessere Koppelung der beiden Spulen.

 

Sowohl auf der Primär- als auch auf der Sekundärseite bilden eine Spule und ein Kondensator einen LC-Schwingkreis. Für den Primärkreis wird das Prinzip eines Plattenkondensators angewendet, der aus zwei entgegengesetzt geladenen Metallplatten mit einer Isolierschicht dazwischen besteht. Auf der Sekundärseite besitzt der als Antenne wirkende Kugelkondensator nur eine der beiden Kondensatorplatten.

Als zweite Platte wirkt die Erde, mit der die Sekundärspule verbunden ist. Dazu ist das untere Ende einer langen Zylinderspule oder die äußere Windung einer Flachspule geerdet. Als Isolierschicht oder Dielektrikum dient dabei die den Tesla-Transformator umgebende Luft. Wie dabei die Energie übertragen wird, werde ich in Kapitel 3.1 noch ausführlich beschreiben. Hier soll es zunächst einmal nur um das Prinzip der Resonanz gehen.

 

Tesla hat mit seinen Versuchen gezeigt, dass eine drahtlose Energie-Übertragung über beliebig große Entfernungen möglich ist. Er ließ sogar einen Sendeturm errichten, mit dem er Energie über den Atlantik hinweg übertragen wollte. Dieser Turm wurde aber nie in Betrieb genommen, da Teslas Geldgeber dieses Projekt nicht weiter unterstützten.

So blieben Teslas große Ideen, wie beispielsweise mit drahtloser Energie elektrisch betriebene Autos und sogar Flugzeuge, nichts weiter als nur Ideen. Das von ihm entdeckte Prinzip der drahtlosen Übertragung elektrischer Energie wird aber bei Funk, Radio und Fernsehen heute sehr intensiv genutzt.

 

Nach dem Prinzip der Resonanz kann eine sehr kleine Energiemenge, die einem schwingfähigen System zugeführt wird, eine sehr große Bewegung in diesem System erzeugen. Dabei kann dieses System beispielsweise ein elektrischer Schwingkreis oder ein einfaches Pendel sein. Wenn es keine Reibung in dem System gibt, und die Energie über unendlich lange Zeit stetig zuströmt, kann dabei die Bewegung unendlich groß werden.

Bei einem Pendel wird ständig positive Lageenergie in ebenfalls positive Bewegungsenergie umgewandelt. Auf der anderen Seite wird dann aus dieser Energie wieder negative Lageenergie und daraus wiederum negative Bewegungsenergie. So ergibt sich ein stetiger Kreislauf, der das Pendel ohne Reibung ewig schwingen lassen würde.

Bei einem elektrischen LC-Schwingkreis geschieht das gleiche mit elektrischem Strom und elektrischer Ladung. Ohne Reibung oder Widerstand - also wenn der Strom supraleitend fließt - kann auch ein elektrischer Schwingkreis ewig weiter schwingen.

 

So zeigt ein in Resonanz befindliches System, wie sich das 'Prinzip der gegensätzlichen Pole' oder 'Prinzip der Nullsumme' des Zeitschalenmodells auswirkt. Die Energie in einem Pendel schwingt ständig zwischen einer positiven und einer gleich großen negativen Lageenergie hin und her. Die Summe bleibt dabei immer exakt null - egal wie stark das Pendel ausschlägt.

Damit eine Resonanz zustande kommt, muss die Energie, die sich in der Bewegung ansammelt und dann dort erhalten bleibt, nicht gleichmäßig, sondern in einem ganz bestimmten Takt zugeführt werden. Ein Pendel muss dazu genau in diesem Takt immer wieder angestoßen oder bei seinem maximalen Ausschlag ein wenig angehoben werden. Dabei spricht man allgemein von der Erregung eines schwingenden Systems. Der richtige Takt der Erregung ist die Eigenfrequenz dieses Systems.

 

Wenn nun das 'Prinzip der gegensätzlichen Pole' nicht nur für Schwingungen, wie bei einem Pendel oder einem elektrischen Schwingkreis, sondern ganz allgemein für alle Bewegungen im Universum, wie beispielsweise die Umlaufbahnen der Gestirne oder die die Bewegungen der atomaren Teilchen, gültig ist, ergibt sich daraus, dass das Universum als perpetuum Mobile ewig in Bewegung bleiben kann.

Voraussetzung dafür ist allerdings, dass es keine Umgebung um das Universum herum gibt, in die Energie abfließen und damit verloren gehen kann. Diese Voraussetzung erklärt wiederum nach dem Zeitschalenmodell das 'Prinzip der endlichen Unendlichkeit', das ich in Kapitel 2.4 noch einmal ansprechen werde.

Wichtig ist an dieser Stelle, dass eine beliebig kleine Erregung über eine entsprechend lange Zeit hinweg zu einer beliebig starken Schwingung führen kann. Hinzu kommt, dass dieser Effekt noch erheblich verstärkt werden kann. Wenn es eine konstante, sehr schwache Erregung gibt, und gleichzeitig eine große Energiemenge für die Schwingung bereit steht, kann diese schwache Erregung in kurzer Zeit eine sehr heftige Schwingung auslösen.

Ein Pendel kann man nämlich auch in Bewegung setzen, indem man, statt es anzustoßen, den Drehpunkt im Takt der Eigenfrequenz hin und her bewegt. Bei einem elektrischen Schwingkreis entspricht das einer rhythmischen Änderung der Kapazität des Kondensators oder der Induktivität der Spule. In diesem Fall spricht man von parametrischer Erregung.

 

Da nun die Schwingung nicht direkt von der Erregung angeschoben wird, sondern sich nur eine Bedingung für diese Schwingung im Takt der Eigenfrequenz ändert, kann die benötigte Energie aus einer vom Takt der Erregung unabhängigen Quelle stammen. Auf diese Weise könnte theoretisch der Flügelschlag eines Schmetterlings in China vor der Küste der USA einen Tornado auslösen. Dazu müssten allerdings die Flügel des Schmetterlings und die Bedingungen für den Tornado exakt die selbe Eigenfrequenz besitzen.

Das Beispiel mit dem Schmetterling und dem Tornado führt uns nun direkt zurück zum Übertragungsweg der Telepathie. Ein Schmetterling und ein Tornado sind natürlich zwei völlig unterschiedliche Dinge. Da ist es wohl mehr als nur unwahrscheinlich, dass die beiden Eigenfrequenzen exakt gleich sein könnten. Die Gehirne einer gleichen Art oder Rasse, wie die des Menschen oder einer bestimmten Tierart, sind aber weitgehend gleich aufgebaut. Zudem erzeugen gleiche Bilder oder gleiche Erinnerungen ebenfalls gleiche Muster oder Strukturen im Gehirn.

Wenn also die Nervenzellen schwingen können und eine gleiche Struktur aufweisen, ist es doch sehr wahrscheinlich, dass sie auch die gleiche Eigenfrequenz besitzen. Zwischen allen Zellen unseres Körpers fließt ein schwacher elektrischer Strom. Damit werden alle Bewegungen unseres Körpers gesteuert. Und wenn elektrische Ströme fließen, kann es doch auch elektrische Schwingkreise geben. Elektrische Energie aus einem Schwingkreis kann wiederum über das elektromagnetische Feld über beliebige Entfernungen übertragen werden, wie es Tesla gezeigt hat. Damit sind doch alle Bedingungen für eine Koppelung zweier Gehirne über eine beliebige Distanz hinweg mit Hilfe der Resonanz gegeben.

 

Gleiche Strukturen besitzen nicht nur die Gehirne von Lebewesen der gleichen Art. In der gesamten Materie im Universum gibt es immer wieder die gleichen Strukturen. Für eine Koppelung mit Hilfe der Resonanz über das elektromagnetische Feld sind also nur noch elektrische Schwingkreise erforderlich. Wenn wir ein Atom betrachten, gibt es da einen positiv geladenen Kern aus Protonen und Neutronen und eine Hülle aus negativ geladenen Elektronen, die den Kern irgendwie umkreisen.

Was sind Elektronen, die irgend etwas umkreisen? Sie sind doch nichts anderes als elektrische Schwingkreise. Die Größe eines Atoms ist zwar im Verhältnis zu einer Nervenzelle oder einer Spule in einem Tesla-Transformator winzig klein. Ebenso winzig ist entsprechend die darin enthaltene Energie. Aber die Materie besteht doch aus gigantisch vielen Atomen. Kann sich da nicht die Energie so weit aufsummieren, dass sie für eine Koppelung mit der Resonanz ausreicht?

Wenn es eine solche Koppelung aller Atome der Materie mit Hilfe der Resonanz über das gesamte Universum hinweg gibt, hat das einen entscheidenden Einfluss auf die Evolution, die Entstehung des Lebens und sogar auf die Entstehung des gesamten Universums. Entsteht also irgendwo aus einer kosmischen Staubwolke ein Stern, wird das Muster dieser Sternen-Entstehung mit Hilfe der Resonanz in andere kosmische Staubwolken übertragen, sodass dort ebenfalls Sterne entstehen, die den gleichen Aufbau haben.

Auch alle anderen Himmelskörper wie Planeten und alles, was es auf ihnen gibt, entsteht dann ebenfalls nach diesem Prinzip. Wenn also auf einem dieser Planeten Leben entsteht, gibt es bald auf allen anderen Planeten, auf denen die entsprechenden Bedingungen vorhanden sind, ebenfalls Leben. Dazu braucht es keine Eizelle, kein Erbgut und keinen Austausch von irgendwelcher Materie zwischen den beiden Planeten.

 

Bei streng naturwissenschaftlicher Betrachtung gibt es keinen Gott als Schöpfer, und das Prinzip der Resonanz durchdringt nach der anerkannten Physik nicht das gesamte Universum. Daher vermutet man eine Art Bauplan für alles, was es im Universum gibt, in der Struktur der Materie oder in den physikalischen Gesetzen. Der Aufbau der Materie ist heute bis hin zu subatomaren Bausteinen wie den Quarks bekannt. Man hat aber nichts gefunden, das irgendwie auf einen solchen Bauplan hin deuten könnte.

Sucht man diesen Bauplan in den physikalischen Gesetzen, so kann das alles, was es im Universum gibt, nur dann entstehen, wenn die bekannten Naturkonstanten sehr exakt die Werte haben, die wir für sie bei Versuchen heraus gefunden haben. Bei der kleinsten Abweichung gäbe es keine Sonne, keine Erde, kein Leben, und uns Menschen gäbe es auch nicht.

Da es in der Struktur der Materie keine Zusammenhänge gibt, aus denen die jeweilige Größe der Naturkonstanten hervor geht, vermutet man, dass es diese im frühen Universum kurz nach dem Urknall gegeben haben könnte. Also sucht man nach ihnen mit großen Teilchenbeschleunigern wie dem im CERN bei Genf.

Mit immer größeren Energiemengen auf kleinstem Raum versucht man dabei, die Bedingungen in der Nähe des Urknalls künstlich zu erzeugen. Statt klarer Hinweise auf einen Bauplan oder Bedingungen für die exakte Größe der Naturkonstanten findet man dabei aber nur alle möglichen neuen Zusammenhänge, die immer neue Rätsel aufgeben.

 

Mit einer Übertragung der Abläufe atomarer Vorgänge über weite Entfernungen hinweg mit Hilfe der Resonanz kann sich dagegen das Universum wie ein Lebewesen bei der Evolution entwickelt und sich so gewissermaßen selbst erschaffen haben. Direkt nach dem Urknall könnten zunächst alle möglichen atomaren Strukturen entstanden sein, von denen bei einem Selektionsprozess nur die nützlichsten und leistungsfähigsten übrig geblieben sind.

Dann wären auch die exakten Größen der Naturkonstanten aus dem Verlauf einer Evolution oder Entwicklung hervor gegangen. Damit hätten sie ihre bekannten Größen, weil unser Universum so aufgebaut ist, wie wir es kennen. Wäre es anders aufgebaut, was nach dem Prinzip der Evolution durchaus möglich ist, hätten auch die Naturkonstanten andere Werte.

In der Nähe des Urknalls ist das Universum sehr gleichmäßig aufgebaut, ohne irgendwelche klaren Strukturen. Erst später entstehen dann aus diesem Ur-Universum Sterne und Galaxien. Dabei erkennt man eine klare Entwicklung von einer strukturlosen, extrem heißen Gas- oder Plasmawolke bis hin zu der Vielfalt, die wir überall im Weltall beobachten können.

 

Das deutet doch mehr auf einen der Evolution ähnlichen Prozess hin, als auf eine Art Ur-Zustand des Universums, aus dem sich irgendwie die exakte Größe der Naturkonstanten ergeben soll.

Betrachtet man diese Zusammenhänge ganzheitlich und bezieht dabei die buddhistische Lehre mit ein, gibt es in der Natur ein solches Prinzip der Selbstschöpfung. Der Buddhismus kennt keinen Gott als Schöpfer. Statt dessen gibt es einen Zyklus der Wiedergeburt, bei dem alle Lebewesen zur Vollkommenheit streben. Warum soll also nicht auch das gesamte Universum aus einem solchen Zyklus hervor gegangen sein?

Damit wäre das Universum selbst eine Art Lebewesen oder ein gigantisch großer Organismus. Dem Zyklus der Wiedergeburt entspricht dann der Kreislauf, in dem nach dem Zeitschalenmodell alle 'Ströme' und 'Felder' der Materie zwischen den beiden Grenzwerten 'Urknall' und 'unendliche Ausdehnung' das Universum durchlaufen. Sogar das Nirwana wäre in Form dieser beiden Grenzwerte des Nichts für das gesamte Universum vorhanden.

 

Vom Prinzip der Resonanz sind wir nun über Teslas drahtlose Energie-Übertragung, das Beispiel eines Pendels, die Telepathie und die Entstehung des Lebens und des Universums auf die Lehre Buddhas gestoßen. So funktioniert ganzheitliches Denken bei der Wissenschaft. Um das ganze abzurunden, könnte man sicherlich noch einige philosophische oder esoterische Aspekte einfließen lassen. Aber ich denke, das Prinzip der Resonanz ist auch so mit allen Möglichkeiten, die sich daraus ergeben, einigermaßen verständlich geworden.

2.2 Das Wirbelprinzip

Mit unser heutigen Technik wenden wir fast immer das Druckprinzip an. Das geschieht in allen Wärmekraftmaschinen, mit denen unsere Energieversorgung aufgebaut ist. Auch wenn wir Vorgänge im Universum wie das Entstehen von Sternen, Planeten oder Galaxien erklären, beziehen wir uns auf die Gesetzmäßigkeiten des Druckprinzips. Danach besitzt dann ein Planet wie die Erde einen sehr massiven Kern, und in einem Stern soll die Kernfusion, die ihn zum leuchten bringt, erst durch einen gewaltigen Druck in seinem Inneren zustande kommen.

Während Materie, die irgendwie zusammen strömt, sich nach den Druckprinzip immer mehr verdichtet, gerät sie nach dem Wirbelprinzip in eine Drehung, sodass schließlich durch die Fliehkraft ein leerer Raum im Zentrum entsteht. Abbildung 2.2:1 zeigt schematisch die Wirkungsweise dieser beiden Prinzipien.

 

Abbildung 2.2:1; Das Wirbelprinzip

 

 

 

Während in unserer Technik das Druckprinzip vorherrscht, beobachten wir in der Natur viele Vorgänge die nach dem Wirbelprinzip ablaufen. Am eindrucksvollsten sind da sicherlich Wirbelstürme oder Wasserwirbel. Aber auch die Planetenbahnen in unserem Sonnensystem kommen nach dem Wirbelprinzip zustande. Ohne ein Gleichgewicht zwischen Gravitation und Fliehkraft wäre schon lange die gesamte Materie der Planeten in die Sonne hinein gestürzt.

Bei einem Wirbel zeigt sich oft eine Spiralstruktur, wie man sie in Abbildung 2.2:1 schon ansatzweise erkennen kann. Besonders eindrucksvoll zeigt sie sich aber bei den Wellen eines Wasserwirbels oder den Spiralarmen einer Galaxie. Diese Spiralen zeigen den Weg, über den die beteiligte Materie in einen Wirbel hinein oder aus einem Wirbel hinaus strömt.

Bei den Planetenbahnen hat sich ein stationärer Zustand mit einem konstanten Gleichgewicht eingestellt, sodass sich geschlossene Kreis- oder Ellipsenbahnen ergeben. Nähert sich aber ein Körper dem Zentrum oder entfernt er sich vom Zentrum, wird aus dem Kreis oder der Ellipse eine Spirale.

 

Was setzt nun einen solchen Wirbel in Bewegung? Allein nach dem Newtonschen Gesetz der Gravitation musste doch einfach alles auf einen Zentralen Massenpunkt zu strömen, wie es in Abbildung 2.2:1 links gezeigt ist. Zunächst einmal ist ja keine Kraft vorhanden, die irgendwie in Richtung der Drehung wirken könnte.

Was ist aber, wenn sich die Masse im Zentrum, auf das eine weitere Masse zu strömt, bereits dreht. Wenn sich dieses Zentrum der Gravitation dreht, dann könnte sich die Wirkung der Gravitation doch mit diesem Zentrum mit drehen und so die zuströmende Materie ebenfalls in Drehung versetzen. Diese drehende Materie wirkt dann wieder auf weitere zuströmende Materie ein und immer so weiter.

Damit haben wir einen Vorgang, der einer Erregung einer Schwingung entspricht. Eine Drehung ist nichts anderes als ein Sonderfall einer Schwingung. Also können wir hier das Prinzip der Resonanz anwenden.

 

Würde bei dem beschriebenen Vorgang die Energie der Drehung vom sich drehenden Zentrum und damit von der Erregung ausgehen, dann würde der Wirbel immer langsamer, je mehr Materie zuströmt. Damit würde er sehr schnell zum Stillstand kommen. Daher kann die Erregung aus der Drehung nur als parametrische Erregung wirken, die eine andere Energiequelle nutzt.

Woher kommt also die in einem Wirbel enthaltene Energie? Wenn ein Körper von einem anderen größeren Körper mit der Schwerkraft angezogen wird und sich auf diesen zu bewegt, wird dabei doch physikalische Arbeit verrichtet. Arbeit oder Energie ist gleich Kraft mal Weg. Also besitzt der von der Schwerkraft angezogenen Körper eine mit dem Abstand zunehmende potentielle Energie oder Lageenergie.

Die Drehung bewirkt nun nach dem Prinzip der parametrischen Erregung eine Umlenkung dieser Energie in die Richtung der Drehung. Damit wird der angezogene Körper umso schneller, je dichter es an den anderen heran kommt. Das Potential dieses Körpers aus Schwerkraft und Abstand liefert also die Energie für die Drehung. So entsteht ein Potentialwirbel.

 

Für eine Umlenkung der Zuströmung in die Richtung der Drehung ist eine Kraft erforderlich, die in diese Richtung wirkt. Diese Kraft ergibt sich aus der Geschwindigkeit der Zuströmung und der Winkelgeschwindigkeit der Drehung. Sie wird Corioliskraft genannt.

Das Wirbelprinzip gilt ganz allgemein, wenn sich Materie um ein Massenzentrum herum dreht. Befindet sich also um ein Zentrum herum zu allen Seiten gleich viel Masse, kann dieses Zentrum auch ein leerer Raum sein. Dann spricht man von dem Auge eines Wirbels.

Abbildung 2.2:2 zeigt am Beispiel zweier Massen m1 und m2 wie unter dem Einfluss einer Drehung mit der Winkelgeschwindigkeit w ein Wirbel entsteht, und welche Kräfte dabei wirksam sind. Wenn sich irgendwo andere Massen als m1 und m2 bereits um das Zentrum drehen, wirkt das als sich drehendes Bezugssystem. Mit der Winkelgeschwindigkeit w dieser Massen oder dieses Bezugssystems und den Geschwindigkeiten der Zuströmung v1 und v2 ergibt sich so jeweils die Corioliskraft Fc1 und Fc2 für die beiden Massen, die sich mit der Schwerkraft Fg gegenseitig anziehen.

Die Kräfte beschleunigen die Massen auf zwei Bahnen, die jeweils um das Auge herum führen. Sie beginnen sich auf einer elliptischen Bahn zu umkreisen. Je schneller nun die Kreisbewegung wird, desto größer wird die Fliehkraft, und desto langsamer wird die Zuströmung. Schließlich wird ein Gleichgewicht erreicht, bei der die Fliehkraft gleich groß ist wie sie Schwerkraft. Dann gibt es keine Zuströmung mehr und auch keine Corioliskraft. Die beiden Massen umkreisen sich um das Auge herum als Zentrum.

 

Abbildung 2.2:2; Zwei sich anziehende Massen

 

 

 

Die Bewegung zweier Massen unter der den Einfluss der Gravitation ist nur eins von vielen Beispielen für einen Potentialwirbel. Damit ein solcher Wirbel entstehen kann, ist nur irgend eine Form einer potentiellen Energie notwendig. Das kann die Höhe des Wasserspiegels bei bei einem Wasserwirbel sein oder ein Gefälle im Luftdruck und in der Temperatur zum Auge hin bei einem Wirbelsturm.

Auch elektrische Spannungen, Ladungen oder Magnetfelder können das Potential für einen Wirbel bereit stellen. Der Wirbel entsteht dann nach dem gleichen Prinzip wie bei zwei sich umkreisenden Massen im Weltraum.

 

In Abbildung 2.2:3 ist dargestellt, wie bei einem Wasserstrudel das Absinken des Wasserspiegels die Energie für die Drehung liefert. Das Potential aus dem hydrostatischen Druck ist nur in der Nähe der Oberfläche verfügbar. Deshalb beginnt ein Strudel auch immer nur dort sich zu drehen. So ergibt sich ein Totraum ohne Drehung unter dem Strudel.

Erst in großer Entfernung strömt das Wasser über seine gesamte Tiefe hinweg zu. Im Wirbel gibt es ein Gleichgewicht zwischen der Fliehkraft und dem entsprechend dem Wasserspiegel niedrigeren hydrostatischen Druck, der an die Stelle der Schwerkraft Fg tritt. Das Auge des Wirbels ist hier die Luft im Inneren des entstehenden Trichters.

 

Abbildung 2.2:3; Wasserstrudel

 

 

 

Entscheidend für das Funktionieren eines Potentialwirbels ist, dass er sich weitgehend reibungsfrei drehen kann. Bei Planetensystemen oder den Spiralarmen einer Galaxie ist das bei der Wirkung der Gravitation im Vakuum des Weltalls sicherlich gegeben. Betrachtet man aber Luft- oder Wasserwirbel, hat man es mit nebeneinander her laufenden Strömungen oder Stromlinien zu tun, die unterschiedlich schnell sind.

Eine höhere Geschwindigkeit erzeugt gemäß Bernoulli einen Unterdruck. So ergibt sich bei einer relativ hohen Geschwindigkeit der Strömung ein Druckgefälle und damit eine Kraft zwischen den Stromlinien, die diese verwirbeln lässt. Die Strömung wird turbulent. Bei kleinen Geschwindigkeiten wird dieses Druckgefälle mit einer geringfügig kleineren Dichte und Temperatur ausgeglichen, sodass die Stromlinien nicht abgelenkt werden und die Strömung laminar bleibt.

 

Bei einem Potentialwirbel ergibt sich nun durch die im Kreis herum führende Strömung ein Sonderfall. Vom Auge der Wirbels - dem trichterförmigen Zentrum eines Wasserwirbels oder dem Auge eines Wirbelsturms - ergibt sich nach außen hin ein Druckgefälle aus dem Gleichgewicht zwischen der Fliehkraft und dem umgebenden Druck. Bei einem Wasserwirbel wird dabei die Druckhöhe nach Bernoulli kleiner, und der Wasserspiegel sinkt ab. In einem Wirbelsturm entsteht im Zentrum ein Auge mit geringerem Luftdruck, das sich nicht mit dem Wirbel mit dreht.

Da sich die Änderung der Geschwindigkeit in einem Potentialwirbel mit dem Druckgefälle über die Wirkung der Fliehkraft im Gleichgewicht befindet, entsteht auch bei hohen Geschwindigkeiten keine Kraft zwischen den Stromlinien, die zu Verwirbelungen führt. Die Strömung bleibt im gesamten Wirbel laminar. Die Wirkungen von Druck, Dichte, Temperatur und Geschwindigkeit heben sich gegenseitig auf.

Nur so lassen sich die hohen Geschwindigkeiten und großen Kräfte erklären, die in einem Wasserwirbel oder Wirbelsturm auftreten können. Bei turbulenter Strömung würden die großen Verluste den Wirbel sehr schnell wieder abbremsen. So könnte nur eine recht langsame Drehung zustande kommen.

Bei einem Wasserwirbel wäre dann kaum eine Vertiefung im Wasserspiegel zu erkennen, und ein Tornado wäre nicht mehr als ein lauer Luftzug. In Kapitel 3.2 wird bei der 'Tornadomaschine' auf diese Thematik noch einmal eingegangen. Dazu gibt es dann im Anhang auch die für Berechnungen erforderlichen Formeln.

 

Nun soll es erst einmal mit der Betrachtung von Potentialwirbeln im Weltraum unter dem Einfluss der Gravitation weiter gehen. Aufschluss darüber geben uns unser Planetensystem und ferne Spiralgalaxien. Dabei zeigt sich immer ein massereiches kugelförmiges Objekt im Zentrum, das von vielen sehr viel kleineren Objekten auf einer weit ausgedehnten Scheibe umkreist wird.

Bei dieser Umkreisung ist jeweils eine wellenförmige Struktur zu erkennen: die Spiralarme einer Galaxie und die Planetenbahnen. Besonders die Spiralarme erinnern dabei an die Wellen, die auf der Oberfläche des Wassers bei einem Wasserwirbel entstehen. Die Form einer Scheibe ergibt sich zunächst einmal aus den Bewegungen bei der Zuströmung nach dem Wirbelprinzip, also aus Gravitation, Geschwindigkeit, Fliehkraft und Corioliskraft.

Abbildung 2.2:4 zeigt oben, wie sich bei einem mit der Winkelgeschwindigkeit w drehenden Bezugssystem die hier als Punkte dargestellte Masse einer interstellaren Gas- und Staubwolke auf eine Scheibe zu bewegt. Darunter ist gezeigt, wie sich dabei die Dichte r dieser Masse um das Auge des Wirbels herum verteilt. Links ist die Achse des Wirbels jeweils als Pfeil mit doppelter Spitze dargestellt. Der Radius der Scheibe erstreckt sich nach rechts entlang der beiden gestrichelten Linien. Die Abbildung zeigt also jeweils einen Schnitt durch die Scheibe. Aus der Zuströmung ergibt sich zum Auge hin zunächst eine große Ansammlung der Masse, die mit zunehmender Entfernung zu einer sehr großen dünnen Scheibe mit relativ geringer Dichte wird.

 

Abbildung 2.2:4; Das Entstehen einer Scheibe im Wirbel

 

 

Der innere Bereich mit hoher Dichte wird bei einem Planetensystem zur Sonne als Zentralgestirn und bei einer Galaxie zu dem dichten kugelförmigen Zentralbereich. Was jeweils am Auge des Wirbels geschieht, werde ich in späteren Kapiteln beschreiben. Als nächstes geht es erst einmal um die Wellen, die jeweils in der Scheibe zu sehen sind. Wie können solche Wellen zustande kommen? Bei einem Wasserwirbel entstehen diese Wellen an der Oberfläche des Wassers also an der Grenze zu der darüber befindlichen Luft.

Es ist also anzunehmen, dass es auch im Weltraum irgendwie eine Grenze gibt, die Wellen entstehen lässt. Wenn man die Abstände der Planeten in unserem Sonnensystem betrachtet, wie sie in Diagramm 2.2:1 gezeigt sind, erkennt man, dass sich der Abstand jeweils immer ungefähr verdoppelt. Wenn man dabei den Planetiodengürtel zwischen Mars und Jupiter als Planet ansieht, passt nur die Erde in dieses Schema nicht recht hinein.

 

Diagramm 2.2:1; Abstände der Planeten von der Sonne

 

 

Bevor ich auf die Wellen der Zuströmung zurück komme, möchte ich kurz erwähnen, was man alten sumerischen Schriften zu dieser Unregelmäßigkeit bei der Erde entnehmen kann. Nach der anerkannten Wissenschaft konnten die Sumerer das vor weit über viertausend Jahren zwar unmöglich gewusst haben, aber nach ihren Schriften hat es sich folgendermaßen zugetragen:

Die inneren Planeten des frühen Planetensystems waren Merkur, Venus, Mars und Tiamat, auf dessen Bahn sich heute der Planetiodengürtel befindet. Dann gab es einen weiteren Planeten, Nibiru oder Marduk, der die Sonne auf einer sehr weiten stark elliptischen Bahn umkreiste und dabei immer wieder nach vielen tausend Jahren in das Innere des Planetensystems eindrang. Dabei gab es einen Zusammenstoß mit Tiamat und einem der Monde Marduks, bei der ein großer Teil Tiamats abgesprengt und zerstört wurde.

Tiamat fing dann einen weiteren Mond Marduks ein und wurde durch den Aufprall auf eine Bahn zwischen Venus und Mars geschleudert. Tiamat und dieser Mond Marduks wurden so Erde und Mond, und die Trümmer des anderen Mondes Marduks und des abgesprengten Teils von Tiamat umkreisen heute als Planetiodengürtel die Sonne.

Erscheint diese Jahrtausende alte Erklärung nicht irgendwie wahrscheinlicher, als eine der anerkannten Erklärungen, nach der die große Masse Jupiters verhindert haben soll, dass zwischen ihm und Mars ein Planet entstehen konnte? Die alte sumerische Variante erklärt jedenfalls sehr plausibel, wie der Planetiodengürtel entstanden ist, und warum die Erde nicht in das Schema der Abstände passt.

 

Wenn Planetenbahnen und die Spiralarme einer Galaxie nach dem gleichen Prinzip aus Wellen entstanden sind, erklärt des sehr anschaulich den mit der Entfernung zur Sonne zunehmenden Abstand. Bei den Spiralarmen ergibt er sich direkt aus dem Verhältnis von Abstand zu Umfang. Es bleibt also noch zu erklären, wie im Weltraum die gleiche Wellenstruktur entstehen kann, wie auf der Oberfläche eines Wasserwirbels. Welche Bedingung entspricht dabei der Grenze zwischen Wasser und Luft bei einem Wasserwirbel?

Wenn einzelne Moleküle dicht beieinander sind, bilden sie ein Gas, in dem sie durch die Gravitation gegenseitig angezogen werden und durch die Abstoßung der Elektronenhüllen immer wieder voneinander abprallen, wenn sie sich zu nahe kommen. So entsteht eine ständige allseitige ungeordnete Bewegung in dem Gas, die wir Temperatur nennen. Mit zunehmender Dichte entsteht dabei ein Druck, der der Gravitation entgegen wirkt. So ergibt sich schließlich aus Druck und Temperatur ein bestimmtes Volumen, das eine bestimmte Masse eines Gases ausfüllt.

Wie wir wissen, gibt es Im Weltraum vor allem leeren Raum oder Vakuum. Man könnte nun vermuten, dass es einen fließenden Übergang vom Rand einer Gaswolke in das umgebende Vakuum gibt. Wenn dieser Übergang aber eine klare Grenze bildet, könnte das die Entsprechung der Grenze zwischen Luft und Wasser bei einem Wasserstrudel sein. Weiteren Aufschluss darüber gibt in Kapitel 2.3.1 die Elektro-Gravitation. Hier gehen wir zunächst einmal davon aus, dass es eine solche Grenze gibt. Mit dieser Grenze ergibt sich ab einer minimalen Dichte immer wieder ein vollkommen leerer Raum oder Vakuum zwischen mehreren Ansammlungen von Gas.

 

Im Vakuum stoßen die Gasmoleküle nur so selten zusammen, dass kein Druck und keine Temperatur entstehen. Trotzdem können immer wieder einmal Gasmoleküle aus einer Gaswolke in das Vakuum entkommen und zu einer anderen Gaswolke gelangen. Das entspricht der Verdunstung und Kondensation bei einer Flüssigkeit und einem Gas.

So kann sich ein Ausgleich zwischen den mit Gas gefüllten Bereichen über das Vakuum hinweg ergeben, der als Wirkung einer Resonanz ein wellenförmiges Muster aus Gas und leeren Bereichen dazwischen entstehen lässt. Die Eigenfrequenz dieses Musters ergibt sich dabei jeweils aus Druck und Temperatur in den Ansammlungen des Gases.

Wenn es am Anfang noch keine Sterne gab, konnte mit dem kosmischen Gas ein solches Muster entstehen, aus dem dann die Spiralarme einer Galaxie und die Planetenbahnen hervor gegangen sind.

Mit der Elektro-Gravitation ergibt sich zudem, dass sich auch größere Objekte wie Sterne, Planeten oder Planetoiden bei sehr großen Entfernungen ähnlich wie ein Gas verhalten können. Mehr dazu aber später. Erst einmal haben wir eine Erklärung nach dem Prinzip der Resonanz für die wellenförmige Struktur der Spiralarme einer Galaxie und der Planetenbahnen.

Was geschieht aber nun im zentralen Bereich einer Scheibe aus Materie, in dem sich die meiste Masse ansammelt? Was dort bei der Entstehung eines Sterns oder Planeten geschieht, werde ich im nächsten Kapitel ausführlich beschreiben. Für den Zentralbereich einer Galaxie ergibt sich wieder mit der Elektro-Gravitation eine sehr plausible Erklärung, die ich in Kapitel 2.3.1 vorstellen werde.

2.2.1 Der Elektronen-Potentialwirbel

Wenn sich in einem sich drehenden Bezugssystem kosmisches Gas und Staub um ein Auge herum ansammeln und des Auge umkreisen, wie es in Kapitel 2.2 Abbildung 2.2:3 gezeigt ist, werden dabei Dichte, Druck und Temperatur immer größer. Durch Reibung bei den ungeordneten Bewegungen aufgrund der Temperatur wird dabei die Drehung des Wirbels immer stärker abgebremst, was wiederum Druck und Temperatur ansteigen lässt.

So wird die Gaswolke immer dichter und das Auge wird immer kleiner. Durch die Corioliskraft beschleunigt, dreht sich dabei das Innere der Wirbels um das Auge herum immer schneller. Schließlich wird die Temperatur so hoch und der Wirbel so schnell. dass die Elektronen aus ihren Bahnen um die Atomkerne heraus gerissen werden. Dabei wird das Gas ionisiert und es entsteht ein heißes Plasma. So entsteht ein Stern.

 

In einem vollständig ionisierten Plasma gibt es nur noch Atomkerne und Elektronen, die sich irgendwie allseitig mit fast Lichtgeschwindigkeit durch das gesamte Plasma hindurch bewegen. Nach dem Zeitschalenmodell und dem 'Prinzip der senkrechten Durchdringung' muss es dabei weiträumige geschlossene Elektronenschalen geben, die zwischen den Atomkernen senkrecht zueinander stehen.

Mit den drei Raumdimensionen gibt es folglich drei Richtungen, in denen jeweils ein Drittel der Elektronen zwischen den Atomkernen hindurch laufen. Betrachtet man nun die Elektronenschalen als Wirbel, muss es einen dreifachen Wirbel aus Elektronen geben, damit aus dem Plasma in einem Stern eine stabile Struktur entstehen kann. Wie sieht diese Struktur aber aus?

 

Wenn wir zur Sonne blicken, sehen wir erst einmal nur eine Kugel aus Plasma. Um diese Kugel herum gibt es eine leuchtende Korona. Das sind die Elektronen, die offensichtlich allseitig aus dem Plasma heraus kommen. Wenn sie da heraus kommen, müssen sie aber auch irgendwie wieder in das Plasma hinein, und das auch noch so, dass ein dreifacher Wirbel entsteht. Wie soll das funktionieren?

Man kann in die Sonne nicht hinein schauen. Aber es gibt auch auf der Erde Plasma. Jedes Feuer besteht aus Plasma, auch wenn darin die Atome nicht vollständig ionisiert sind, wie im Plasma der Sonne. Bei einer Verbrennung werden nur die Elektronen von den Atomkernen getrennt, die für die chemischen Bindungen in den beteiligten Substanzen verantwortlich sind. Das ist ausreichend, damit beispielsweise Kohlenstoff und Sauerstoff zu Kohlendioxid verbrennen können.

Feuer besteht in der Regel aus Glut und Flammen. Bei der Glut befindet sich das Plasma im inneren des Brennstoffs und wird von diesem an seiner Position gehalten. Flammen sind dagegen meistens ständig in Bewegung. Dabei bilden sie keine stabilen Strukturen. Es gibt aber auch Flammen, die eine immer gleichbleibende Form haben, wie bei Gasbrennern oder bei einer Kerze.

Bei ihnen muss es also wie bei der Sonne eine stabile Struktur des Plasmas geben. In Abbildung 2.2.1:1 ist am Beispiel einer Kerzenflamme gezeigt, wie ein stabiles Plasma nach dem Zeitschalenmodell als dreifache Struktur aus geschlossenen Elektronenschalen aufgebaut sein muss.

 

Abbildung 2.2.1:1; Plasma: Elektronenschalen einer Kerzenflamme

 

Bei einer Kerze steigt das Wachs im Docht nach oben und verdunstet dort. Dabei wird es von den heißen Abgasen der Verbrennung nach oben gezogen, während Luft von unten zuströmt. Das gasförmige Wachs und die Luft vermischen sich und gelangen dann in das heiße Plasma, das in der Abbildung grau hinterlegt dargestellt ist.

Die äußeren Elektronen lösen sich nun von den Atomkernen und bilden ein dreifaches System aus geschlossenen Schalen. Die erste Schale umgibt und durchdringt in Form einer nach oben hin gestreckten Hohlkugel das Plasma. Die anderen beiden Schalen durchdringen sich gegenseitig und das Plasma jeweils senkrecht, sodass im Plasma Würfelförmige Strukturen entstehen, in denen die Atomkerne eingebettet sind.

In der Abbildung zeigen sich diese als verzerrte Quadrate. Bei der Verbrennung ist das Gas allseitig in Bewegung, sodass sich räumlich betrachtet immer wieder die Bedingungen für eine senkrechte Durchdringung einstellen können. Seitlich, im Inneren und vor allem über der gestreckten Hohlkugel zeigt sich eine leuchtende Korona aus Elektronen.

Am Inneren Rand des Plasmas lösen sich die Elektronen beim Sauerstoff in der Luft und beim gasförmigen Wachs von ihren Atomkernen. Dann erfolgt im Plasma die Verbrennung, wobei Energie als Licht und Wärme abgegeben wird. Am äußeren Rand fügen sich die Atomkerne und Elektronen zu den Molekülen der Abgase wieder zusammen. So ergibt sich ein stationäres Gleichgewicht, das von den durch die Wärme nach oben steigenden Abgasen aufrecht erhalten wird.

 

Am Beispiel der Kerzenflamme haben wir nun eine stabile Struktur für ein Plasma aus jeweils drei senkrecht zueinander stehenden Elektronenschalen. Statt von einem Wirbel wie bei einem Stern, wird diese Struktur allerdings von aufsteigendem heißen Gasen aufrecht erhalten. Man kann aber sicherlich davon ausgehen, dass diese Struktur in einem Stern sehr ähnlich aufgebaut sein muss. Was tritt dabei aber an die Stelle der aufsteigenden Luft?

Das Plasma muss in der Richtung der Flamme ständig auseinander gezogen werden, um eine stabile Struktur zu erhalten. in einem Wirbel kann das von einem Zentrum nach außen nur die Fliehkraft bewirken. Also muss das Plasma der Flamme in einem Stern immer senkrecht zur Achse der Drehung nach außen Zeigen. Aus der gestreckten Kugel der Kerzenflamme wird so ein Thoroid, der sich um die Achse herum erstreckt.

Abbildung 2.2.1:2 zeigt, wie dieser Wirbel aus Elektronen um die in der Mitte als Pfeil mit doppelter Spitze gezeigte Achse entsteht. Dabei ist die Struktur der Kerzenflamme einfach nur nach rechts zur Seite gekippt und in die Breite gezogen. Damit ein um die Achse rotierender Thoroid entsteht, muss man sich das Ganze um die Achse gespiegelt vorstellen.

Dazu ist der Umfang des Sterns oder unserer Sonne mit einem gestrichelten Kreis eingezeichnet. So ergibt sich ein Schnitt durch den Elektronen-Potentialwirbel dieses Sterns. Man erkennt, dass es entlang der Achse ein Loch ergibt, das sich durch den gesamten Stern hindurch erstreckt. Das ist ganz im Inneren das Auge des Wirbels, in dem das Plasma eingeschossen ist. Weiter außen entsteht das Loch jeweils aus dem Auge der beiden anderen Wirbel, die das Plasma und sich gegenseitig senkrecht durchdringen.

Hier zeigt sich deutlich der Unterschied zwischen dem Druckprinzip und dem Wirbelprinzip. Während nach dem Druckprinzip ein Stern nach innen immer dichter und heißer wird, zeigt sich hier im Zentrum ein leeres Loch, und das Plasma hat die Form eines Thoroiden, der innen hohl ist.

Nach dem Druckprinzip hält allein die gewaltige Schwerkraft der großen Masse das Plasma eines Sterns zusammen. Nach dem Wirbelprinzip ergibt sich dagegen eine stabile Struktur mit drei Wirbeln aus Elektronen, die in allen Richtungen jeweils senkrecht zueinander stehen.

 

Abbildung 2.2.1:2; Elektronen-Potentialwirbel der Sonne

 

Ein Loch, das entlang der Drehachse durch die Sonne hindurch führt, können wir nicht sehen, da wir immer von der Seite aus der Scheibe der Planetenbahnen auf die Sonne schauen. Trotzdem erkennen wir auf der Sonne Löcher, die ins Innere der Sonne führen und für uns schwarz erscheinen: die Sonnenflecken.

Sie sind nach dem Wirbelprinzip genau solche Löcher, wie das große Loch entlang der Achse. Wie sie entstehen, erklärt das sehr starke Magnetfeld der Sonne. Mit jeweils den negativen Ladungen der Elektronen außen und innen und den positiv geladenen Atomkernen dazwischen, ist der Potentialwirbel der Sonne zunächst einmal neutral wie ein Atom. Nur ist die Struktur eines so großen Körpers wie ein Stern nicht so stabil wie Kern und Hülle bei einem Atom. Es entsteht ein Ungleichgewicht in der Verteilung der Atomkerne und damit ein positiver Pol auf der Seite mit der größeren Anzahl Atomkerne.

Dieses Ungleichgewicht ist nicht konstant. Daher wechselt das Magnetfeld der Sonne immer wieder seine Polarität. Mit diesem Wechsel der Polarität ändert sich auch die Anzahl der Sonnenflecken. Das hängt damit zusammen, dass ein Magnetfeld einen leeren Raum sehr viel leichter durchdringen kann als ein dichtes Plasma mit vielen Atomkernen. Ein Magnetfeld steht immer senkrecht zu einem fließenden Strom oder einem elektrischen Feld. Damit stehen die Feldlinien des Magnetfeldes unserer Sonne oder eines Sterns senkrecht zu den Elektronenschalen des dreifachen Wirbels.

Folglich tritt das Magnetfeld jeweils an den Polen aus der Sonne heraus, gelangt dann weit in den Weltraum hinaus und muss schließlich von der Seite her durch das Plasma hindurch wieder zum Auge des dreifachen Wirbels zurück. Um dabei den Widerstand zu reduzieren, entstehen um den Umfang der Sonne herum immer wieder kleine Nebenwirbel und mit ihnen Löcher, durch die das Magnetfeld leicht hindurch treten kann. Wenn die Polarität wechselt, wird das Magnetfeld immer schwächer, bis schließlich das verschobene Gleichgewicht zur entgegengesetzten Polarität umkippt. Ein schwächeres Magnetfeld benötigt weniger Löcher. Also wird die Anzahl der Sonnenflecken kleiner.

Wenn wir durch die Sonnenflecken hindurch in die Sonne hinein blicken, fällt unser Blick auf den sehr dichten Elektronenwirbel im Zentrum. In ihm durchdringen sich alle drei Komponenten dieses Wirbels jeweils senkrecht. Mit ihren Strom- und Feldanteilen sind damit nach dem Zeitschalenmodell alle sechs Dimensionen der 'Raumzeit' vollständig ausgefüllt, sodass absolut nichts, also auch kein Licht, diesen Teil des Wirbels durchdringen kann. Deshalb können wir durch einen Sonnenfleck hindurch nicht das helle Plasma auf der anderen Seite sehen. Hinter dem Loch im Plasma ist es einfach nur dunkel. Wir sehen also einen schwarzen Fleck auf der Sonne.

 

Kommen wir nun zu der kosmischen Gaswolke zurück, die sich zu einem Stern verdichtet. Wenn im Zentrum ein sich schnell drehender Wirbel entsteht, geschieht das unabhängig von der Masse der Gaswolke. Bei einer großen massiven Gaswolke wird die für den Wirbel erforderliche Geschwindigkeit lediglich bei einem erheblich größeren Radius erreicht, was einen sehr großen Wirbel entstehen lässt. Bei einer geringen Masse ist der Radius entsprechend klein und es entsteht ein kleiner Wirbel. Nach dem Wirbelprinzip ergibt sich also im Zentrum immer ein dreifacher Elektronen-Potentialwirbel, wenn sich Gas und Staub im Weltraum an einem Punkt verdichten.

Also besitzt nach dem Wirbelprinzip auch jeder Planet, Mond oder Planetoid in seinem Inneren einen kleinen Elektronen-Potentialwirbel, also eine Zentralsonne oder einen kleinen Stern. Damit sind alle Planeten völlig anders aufgebaut, als es die anerkannte Wissenschaft mit dem Druckprinzip zu erklären versucht. Abbildung 2.2.1:3 zeigt den Aufbau eines Planeten mit Zentralsonne nach dem Wirbelprinzip. Um den Elektronen-Potentialwirbel herum, der genau so aufgebaut ist wie unsere Sonne, gibt es in einem gewissen Abstand eine Hülle aus Gas und Staub oder aus festem Material.

 

Abbildung 2.2.1:3; Hohler Planet mit Zentralsonne

 

 

Die Entstehung nach dem Wirbelprinzip erklärt auf sehr einfache Weise vieles, was wir über die Erde und andere Planeten wissen. Je tiefer wir in die Erde vordringen, desto wärmer wird es. Wenn man diesen Anstieg der Temperatur über den Radius hoch rechnet, ist es im Zentrum der Erde ungefähr so heiß, wie auf der Oberfläche der Sonne. Außerdem besitzt die Erde ein Magnetfeld, das exakt so aufgebaut ist, wie das der Sonne. Auch dieses Magnetfeld wechselt immer wieder einmal die Polarität, wie es Untersuchungen in alten Gesteinsschichten belegen.

Kommen Hitze und Magnetfeld also von einem flüssigen Eisenkern, in dem es wegen eines hohen Druckes zur Kernspaltung kommt, wie es die anerkannte Theorie beschreibt, oder deutet das nicht eher auf einen kleinen Zentralstern hin? Eine Sache spricht zunächst einmal dagegen: Nach der anerkannten Theorie könnte es in einem kleinen Stern im Inneren eines Planetoiden keine Kernfusion geben. In Kapitel 2.2.2 werde ich aber vorstellen wie eine Kernfusion in einen Elektronen-Potentialwirbel weitgehend unabhängig von seiner Größe zustande kommen kann.

 

Das Wirbelprinzip erklärt auch sehr anschaulich, warum es zunächst Sterne, dann große Planeten als Gasriesen und schließlich kleine Planeten und Planetoiden aus festem Material gibt. Bei einer großen Masse gibt es einen im Verhältnis zum Durchmesser der Gaswolke sehr großen Elektronen-Potentialwirbel, in dem der größte Teil der Materie enthalten ist.

Dieser strahlt dann sehr viel Energie ab, sodass alles Material um ihn herum durch eine intensive Strahlung aus atomaren Teilchen in den Weltraum hinaus gedrängt wird. Es entsteht ein Stern. Ist die Masse deutlich kleiner, so bildet sich eine große Gas- und Staubwolke um eine Zentralsonne herum.

Es entsteht ein Gasriese wie Jupiter oder Saturn. Dabei hält die starke Gravitation der recht großen Zentralsonne das Gas in der Wolke fest, und der Wirbel liefert die Energie dafür, dass der Staub in der Wolke in der Schwebe bleibt und sich nicht zum Zentrum hin verdichtet.

 

Bei einer kleinen Masse entsteht zunächst eine im Verhältnis große Gas- und Staubwolke um einen kleinen Zentralstern herum. Durch die geringere Energie aus dem Wirbel fallen nun die schwereren Bestandteile zum Zentrum hin, während leichtes Gas nach außen gelangt. So bildet sich um eine kleine, sehr heiße Gaswolke herum, die den Zentralstern umgibt, eine Hohlkugel aus festem Material, das sich durch die vom kleinen Stern abgestrahlte Hitze zu Magma verflüssigt.

Durch die Kälte im umgebenden Weltraum erstarrt das äußere Material zu einer festen Kruste. Darauf können sich dann Flüssigkeiten wie Wasser bei höheren Temperaturen oder flüssige Kohlenwasserstoffe wie Methan bei niedrigen Temperaturen ansammeln. In der äußeren Gaswolke gibt es nun einen dichten festen Kern mit einer starken Gravitation. Dieser zieht das Gas stark an und konzentriert es um seine kleine Oberfläche herum. Da sich nun kaum Staub oder größere Partikel in dem Gas befinden, wird seine Dichte und damit auch der Druck mit dem Abstand sehr schnell kleiner.

So ergibt sich nur in der Nähe der Oberfläche eine Atmosphäre, die umso weniger Gas enthält, je kleiner der Planet ist. Das übrige Gas wird von der Strahlung der Sonne in den Weltraum hinaus gedrückt. Je nach Abstand von der Sonne ergibt sich so eine minimale Größe eines Planeten, bei der es eine Atmosphäre geben kann.

 

Aus der Beobachtung wissen wir, dass sich der Mond ganz langsam immer weiter von der Erde entfernt. Das macht er, obwohl er bei jeder Umdrehung der Erde in den Ozeanen Flutberge erzeugt und damit riesige Mengen Wasser ständig in Bewegung versetzt. Die damit verbundenen Reibungsverluste müssten den Mond also langsamer werden lassen. Dabei müsste er immer näher an die Erde heran kommen und schließlich in sie hinein stürzen. Was treibt also den Mond auf seiner Bahn an?

Ein Potentialwirbel und eine Kernfusion in einem Zentralstern kann die Energie dafür bereit stellen. Bei der Umwandlung von Wasserstoff zu schwereren Elementen gibt es eine Verdichtung der Materie. Neben der mit der Strahlung abgegebenen Energie entsteht so eine Corioliskraft, die den Wirbel und damit das gesamte elektromagnetische Feld um den Wirbel herum in Drehung versetzt. Diese Corioliskraft wirkt auch auf den Mond und schiebt ihn auf seiner Bahn an.

 

Es gibt einen einfachen, aber sehr interessanten Versuch, den vor langer Zeit einmal Professor Heinz Haber in einer seiner Fernsehsendungen vorführte. Er schnitt die Kontinente, so wie sie auf einem Globus dargestellt waren, aus Papier aus und klebte sie auf einen Luftballon, der so weit aufgeblasen war, dass die ausgeschnittenen Kontinente gerade so darauf passten. Dabei war schon erstaunlich, dass alle Teile auf dem kleinen Luftballon sehr gut ineinander passten und dabei eine nahezu geschlossene Fläche bildeten. Dann blies er den Luftballon auf die Größe des Globus auf, und jeder Kontinent nahm dabei exakt den Platz und die Ausrichtung wie auf dem Globus ein.

Dieser Versuch zeigt doch eindeutig, dass die Erde am Anfang eine geschlossene Kruste hatte und sich dann ausdehnte, wobei die Kruste aufbrach und sich dann die Kontinente exakt an die Position bewegten, an der sie sich heute befinden. Wenn die Erde aber eine massive Kugel ist, wie soll sie sich dann ausgedehnt haben? Dann kann es am Anfang nur irgendwo auf dieser Kugel einen zusammen hängenden Ur-Kontinent gegeben haben, der auseinander brach, und dessen Teile sich irgendwie an ihre heutigen Position verschoben haben. So wird es heute allgemein mit der Plattentektonik erklärt. Den Versuch mit dem Luftballon erwähnt man dabei nicht, damit niemand unbequeme Fragen stellt.

 

Eine Hohlkugel mit einer kleinen Sonne in ihrem Zentrum kann sich aber ausdehnen. Und wenn man die vulkanischen Aktivitäten auf der Erde mit ihren aktiven Zonen jeweils genau zwischen den Kontinenten betrachtet, ist es doch mehr als nur wahrscheinlich, dass sich die Erde immer noch ausdehnt. Mit einer stetigen Ausdehnung wird auch Krümmung der Oberfläche immer kleiner.

Dann drückt sich an verschiedenen Stellen die Erdkruste nach oben und es falten sich hohe Gebirge auf. Alle diese beschriebenen Vorgänge beobachten wir nicht nur auf unserem Planeten, sondern auch auf den meisten anderen Planeten unseres Sonnensystems und auf deren Monden. Nach dem Wirbelprinzip gibt es also im Zentrum der Erde eine kleine Sonne, dann einen großen mit heißem, unter hohem Druck stehenden Gas gefüllten Hohlraum und darum eine Hohlkugel mit einer dünnen festen Kruste außen und einem heißen See aus flüssigem Magma auf der Innenseite.

Das unter Druck stehende Gas im Inneren bildet ein fließendes Gleichgewicht mit der Schwerkraft, mit der die Masse der Hohlkugel auf das Gas drückt. Zum Ausgleich gibt es überall Risse und Spalten, durch die das Magma nach außen gelangt. So dehnt sich die Hohlkugel immer weiter aus. Dabei wird sie immer dünner, und der Druck aus der Schwerkraft wird entsprechend kleiner, wobei sich wieder ein Gleichgewicht mit dem ebenfalls kleiner werdenden inneren Gasdruck einstellt. So kann sich die Erde immer weiter ausdehnen, bis schließlich ein stabiles Gleichgewicht zwischen dem Druck im Inneren und der Schwerkraft möglich wird.

 

Es mag nun vielleicht seltsam erscheinen, dass ein Gas im inneren eines hohlen Planeten mit dessen starker Gravitation im Gleichgewicht stehen soll. Mit der Hohlkugel ergeben sich jedoch andere Verhältnisse bei der Gravitation als es das Newtonsche Gesetz beschreibt. Bei einer hohlen Kugel wirkt zunächst einmal die Schwerkraft auf eine Fläche im Inneren der Hohlschale. Das Newtonsche Gesetz gilt aber nur für eine Punktmasse. Also ist es nur außerhalb der Hohlkugel bis zu deren Oberfläche gültig.

Diagramm 2.2.1:1 zeigt, wie die Gravitation bei einer Hohlkugel wirkt. Nach rechts ist der Radius aufgetragen. Für die Schwerpunkt-Fläche innerhalb der Kugelschale ist hier der Radius r0 gleich eins. Die innere Oberfläche befindet sich bei ri = 0,9, die äußere bei ra =1,1. Nach oben ist die relative Schwerkraft aufgetragen. Für r0 wäre sie gleich eins. Im inneren eines Körpers fällt sie aber bis auf null im Schwerpunkt ab. Für die Innenseite steigt sie dann mit umgekehrtem Vorzeichen wieder an. Auf der Inneren Oberfläche wirkt sie dann nach außen. Am Mittelpunkt der Hohlkugel ist sie wieder gleich null.

 

Diagramm 2.2.1:1; Gravitation bei einer Hohlkugel

 

 

Dieses Verhalten der Schwerkraft ist anschaulich mit dem 'Prinzip der Senkrechten Durchdringung' nach den Zeitschalenmodell zu erklären. Danach müssen alle Feldlinien der Gravitation senkrecht auf der Kugelschale stehen. Wie in Diagramm 2.2.1:2 gezeigt, ergeben sich so aus der Lage der Schnittpunkte die Positionen, an denen ein Körper im Inneren der Hohlkugel mit der gleichen Kraft angezogen wird wie außen.

So lässt sich diese Kraft auch für einen im Inneren der Kugel befindlichen Körper nach dem Newtonschen Gravitationsgesetz bestimmen. In der Abbildung ist stellvertretend jeweils die senkrecht zur Schwerkraft stehende Feldlinie gezeigt. Für alle anderen Feldlinien ergeben sich aus der Geometrie die gleichen Verhältnisse.

 

Diagramm 2.2.1:2; Feldlinien bei der Hohlkugel-Gravitation

 

 

Mit dem Vorstehenden ist erklärt, wie die Schwerkraft bei einer Hohlkugel auf einen anderen Körper in deren Nähe wirkt. Der Schwerpunkt der gesamten Hohlkugel ist aber nach wie vor in ihrem Zentrum. Und dort hin zieht es zunächst einmal auch deren Masse. Dabei ist die Anziehung allerdings aufgrund des leeren Raumes im Inneren geringer als bei einer Vollkugel.

Dazu kommt dann noch die im Verhältnis zur gesamten Masse kleine Gravitationskraft aus der Zentralsonne. Als Festkörper wäre die Kugelschale stabil, als Gas oder Flüssigkeit würde sie sich aber durch die Schwerkraft auf die Zentralsonne zu bewegen. Wie zuvor beschrieben, besteht die Hohlkugel aus einer dünnen festen Kruste außen und innen aus mehr oder weniger zähflüssigem Magma.

Sie ist damit weder wirklich fest noch richtig flüssig. Sie verhält sich also ähnlich wie Brei oder Pudding. Dabei klebt sie einerseits zusammen, sodass eine Tragwirkung wie bei einem Gewölbe oder einer Kuppel zustande kommt, zeigt aber gleichzeitig eine Tendenz, langsam aber stetig um die Zentralsonne herum zusammen zu fließen.

Ohne einen Druck von innen könnte sie also bestenfalls ihre Größe beibehalten, wenn ihre Zähigkeit groß genug wäre. Ausdehnen könnte sie sich aber nicht. Die Fliehkraft kann man bei dieser Betrachtung vernachlässigen, da sich die Erde und die anderen Planeten nur relativ langsam um sich selbst drehen. Zudem ist in Richtung der Drehachse die Fliehkraft nicht wirksam.

 

Für die beschriebene Ausdehnung der Planeten spricht auch, dass man auf dem Mars tiefe Täler und Gebiete, die an Seen oder Ozeane erinnern, erkennen kann. Nach allem, was in der Wissenschaft bekannt ist, können solche Strukturen im Gelände nur durch flüssiges Wasser entstanden sein. Der Mars besitzt aber eine zu geringe Gravitation, um eine Atmosphäre und flüssiges Wasser auf seiner Oberfläche fest zu halten.

Wie konnte es also früher einmal Flüsse, Seen und Ozeane auf dem Mars gegeben haben? Bei gleich bleibender Größe hätte er ja auch irgendwann früher keine Atmosphäre und kein flüssiges Wasser auf seiner Oberfläche fest halten können. Wenn er aber vor Millionen oder Milliarden Jahren viel kleiner war, ist das mehr als nur wahrscheinlich. Bei geringerer Größe ist die Wirkung der Gravitation deutlich stärker. Nach Newton wird sie mit dem Quadrat des Abstandes von Zentrum kleiner.

Vielleicht gab es also das erste hoch entwickelte Leben in unserem Sonnensystem nicht auf der Erde, sondern auf dem Mars. Als die Erde noch als Tiamat zwischen Mars und Jupiter die Sonne umkreiste, wie es die Sumerer berichten, lag sie so ziemlich am äußersten Rand der habitablen Zone. Wenn es also Leben auf ihr gab, war es wahrscheinlich sehr speziell an eine extrem kalte Eiswüste angepasst.

Da erscheint es nach unserem heutigen Kenntnisstand eher unwahrscheinlich, dass es höher entwickelte Lebewesen gegeben haben könnte. Der Mars ist aber erheblich näher an der Sonne. Mit einer dichten Atmosphäre, die genügend Treibhausgase enthält, wären dort durchaus ähnliche Verhältnisse wie heute auf der Erde möglich.

 

Man kann also sehr gespannt sein, was es bei einer bemannten Mission alles auf dem Mars zu eindecken gibt. Vielleicht findet man ja dort in einer Höhle versteinerte Knochen von Lebewesen, wie es sie ganz ähnlich heute auf der Erde gibt. Wenn sich die Evolution, wie bereits beschrieben, nach dem Prinzip der Resonanz durch das gesamte Universum ausbreitet, ist es sogar durchaus möglich, dass es bereits eine hoch entwickele Zivilisation auf dem Mars gegeben hat, lange bevor das Leben auf der Erde entstanden ist. Vielleicht begegnen wir ja bald sogar einigen Marsmenschen - auch wenn es dann nur ihre Millionen oder Milliarden Jahre alten versteinerten Knochen sein werden.

 

Wie ich bereits erwähnt habe, gibt es die Behauptung, dass die Erde nicht nur hohl, sondern auch innen bewohnt sei, und Öffnungen an den beiden Polen habe. Die Ursache der Ausdehnung wäre dabei nicht ein innerer Gasdruck, sondern die Ausdehnung des gesamten Gesamten Universums seit dem Urknall.

Eine solche Vorstellung einer hohlen Erde war bereits bei den Nazis sehr verbreitet. So gab es nach dem zweiten Weltkrieg vor allem in den USA einen sehr konkreten Verdacht, dass sich einige Nazis mit geheimer Technik wie den bereits erwähnten fliegenden Untertassen in das Innere der Erde zurück gezogen haben könnten - falls es überhaupt existierte.

Da viele Nazis nach Argentinien geflüchtet waren, vermutete man, dass einige von ihnen möglicherweise von dort aus durch die Öffnung am Südpol ins innere der Erde gelangt sein könnten. Um hier eine mögliche Bedrohung auszuschließen, wurde eine Expedition mit mehreren Schiffen und einem Flugzeugträger unter der Leitung von Admiral Byrd zur Antarktis geschickt. Diese 'Operation Highjump' genannte Expedition diente angeblich wissenschaftlichen Zwecken, obwohl sie von der US-Marine durchgeführt wurde.

Von dem Flugzeugträger aus gab es mehrere Flüge zum Südpol, bei denen Admiral Byrd - sicherlich wegen der Geheimhaltung - das Flugzeug selbst steuerte. Dabei soll er angeblich sogar ins innere der Erde vorgestoßen sein. Da der Zweck dieser Expedition weitestgehend geheim war, gibt es keinerlei Beweise für diese Behauptung. Ein Tagebuch Admiral Byrds, das vor einiger Zeit auftauchte, und einen Bericht über eine Stadt im Inneren der Erde enthält, ist sicherlich eine Fälschung.

 

Mit einer weitgehend geheimen Expedition der US-Marine zur Antarktis gibt es hier wieder eine Grundlage für die abenteuerlichsten Spekulationen. Es muss ja schließlich an der Sache etwas dran sein, wenn man dafür eine umfangreiche militärische Aktion finanziert. So gibt es verschiedene Satellitenbilder, die angeblich Vertiefungen oder Löcher an den Polen zeigen. Bei einigen sind tatsächlich kreisrunde Löcher an den Polen zu sehen. Es gibt aber ein Bild, auf dem man im Inneren der angeblichen Öffnung die Umrisse der Antarktis erkennen kann.

Also kann diese runde Öffnung doch nur ein sehr großes Loch in der Wolkendecke sein. Dazu gibt es dann folgende Erklärung: Das wirkliche Loch befindet sich dort, wo ein weißer Fleck über den Südpol zu sehen ist. Dort soll das Licht der Zentralsonne hindurch scheinen und angeblich alles überbelichten. Man könne sogar Strahlen erkennen, die von dieser Öffnung ausgehen.

Abbildung 2.2.1:4 zeigt ein Satellitenbild der Antarktis. Die Stelle, an der sich auf dem beschriebenen Bild der weiße Fleck befindet, von dem angeblich Strahlen ausgehen, ist mit einem Kreis markiert. Dort soll es die Öffnung in das Innere der Erde geben. Und was zeigt dieses Bild? Also wird behauptet, alle neueren Satellitenbilder der Polarregionen seien manipuliert.

 

Abbildung 2.2.1:4; Antarktis

 

 

 

Für das große Loch gibt es dann auch gleich noch eine plausible Erklärung: Es soll eine Art Atmung durch die kleine Öffnung am Südpol geben. Dabei strömt angeblich warme Luft aus dem Inneren heraus und drängt die Wolken auf allen Seiten gleichmäßig nach außen. Mit dieser Erklärung kann man tatsächlich geneigt sein, auf diesem Bild eine Öffnung zu erkennen. Und je länger man auf das Bild schaut, desto mehr regt es die Phantasie an.

Kann sich aber nicht genau so gut einfach in der Mitte eine dichte Wolke befinden, die von der Sonne angestrahlt wird, und als heller Punkt erscheint? Und wie ist es, wenn durch eine besondere Wetterlage sehr trockene und relativ warme Luft in einer hohen Luftschicht dem Südpol zuströmt? Dann sinkt diese Luft doch über dem kalten Eis nach unten und breitet sich gleichmäßig in alle Richtungen aus. Wenn sie dabei die Wolkendecke nach außen weg schiebt, zeigt sich doch auch ohne "Atmung" von innen ein kreisrundes Loch.

Hinzu kommt, dass sich das Universum zwar insgesamt ausdehnt, sich aber überall dort, wo eine stärkere Gravitation wirkt, zusammen zieht - näheres dazu in Kapitel 2.3. Mit Öffnungen an den Polen kann kein innerer Druck eine Ausdehnung bewirken. Zudem müsste, wie bereits beschrieben, die Festigkeit der Hohlkugel der Gravitation entgegen wirken, um ein Zusammenfallen nach innen zu verhindern. So könnte die Hohlkugel lediglich ihre Größe beibehalten, aber niemals größer werden.

 

Mit dem zuvor zu der Ausdehnung Beschriebenen, könnten allerdings irgendwann, wenn die Hohlkugel dünn genug geworden ist, Öffnungen an den Polen entstehen. Durch die Fliehkraft ist die Kugelschale jeweils an den Polen am dünnsten. Wenn der Innere Druck sie dann platzen lässt, erfolgt das zuerst an einem der Pole.

Da es bei einem Loch keinen inneren Druck mehr gibt, ist jedoch anzunehmen, dass so nur eine Öffnung entsteht. Würden sich aber an beiden Polen durch den Druck zuerst kuppelartige Blasen bilden, die nur durch den inneren Druck stabil wären, könnte die zweite Kuppel unter dem Einfluss der Schwerkraft zusammen fallen, nachdem die erste Kuppel durch den inneren Druck gesprengt wurde. So könnte es zumindest theoretisch zwei Öffnungen geben.

Wie würde es aber nach dem Entstehen solcher Öffnungen mit dem Vulkanismus und der Verschiebung der Erdplatten aussehen? Da würde doch nichts mehr passieren, da es keine Ausdehnung gäbe und auch der innere Druck fehlte. Und wie wahrscheinlich ist diese Sache mit den zwei Kuppeln?

 

Bei der Erde ist es also sehr unwahrscheinlich, dass es Polöffnungen gibt. Sehr alte Planeten, bei denen die Ausdehnung ihr Maximum erreicht hat, und der Vulkanismus zum Stillstand gekommen ist, könnten aber eine oder zwei Polöffnungen haben. Darin könnte dann eine außerirdische Zivilisation sicher vor Asteroideneinschlägen und unabhängig von einer habitablen Zone beim Abstand von ihrer Sonne Millionen oder Milliarden Jahre lang leben. Ein Stern verbraucht umso schneller seinen Kernbrennstoff, je größer er ist. Entsprechend müsste eine kleine Zentralsonne eine sehr lange Lebensdauer besitzen.

Damit könnte eine Zivilisation im Inneren eines hohlen Planeten noch weiter bestehen, nachdem ihre Sonne schon längst zu einem Neutronenstern oder schwarzen Loch zusammen gefallen ist. Dann wäre ihr Planet zwar außen eine extreme Eiswüste mit Temperaturen dicht am absoluten Nullpunkt, innen könnte aber die Zentralsonne für angenehme und absolut gleichmäßige Temperaturen sorgen. Innen bewohnte, sehr alte hohle Planeten könnten damit der ideale Lebensraum für hoch entwickelte außerirdische Zivilisationen sein, die uns Menschen weit überlegen sind.

Voraussetzung ist allerdings, dass das, was man über die Lebensdauer von Sternen üblicher Größe weiß, auch für kleine Zentralsterne zutrifft. Wahrscheinlich wird aber die Kernfusion im Potentialwirbel eines Zentralsterns erst durch den Gasdruck im Inneren eines Planeten möglich. Dann wird die Leuchtkraft des kleinen Sterns mit der Ausdehnung des Planeten immer schwächer, bis er schließlich einfach erlischt. So können keine Polöffnungen und kein bewohntes Inneres entstehen.

Abschließend kann man also sagen, dass es theoretisch irgendwo im Universum hohle Planeten geben könnte, deren Inneres bewohnt ist. Bei der Erde gibt es auf der Innenseite aber höchstwahrscheinlich einen heißen See aus flüssigem Magma und keine Polöffnungen.

 

2.2.2 Kernfusion durch Neutronen-Anlagerung

Wie bereits erwähnt, kann es nach der anerkannten Wissenschaft in einem kleinen Zentralstern im Zentrum eines Planeten keine Kernfusion geben. Dort wäre die Masse und damit die Gravitationskraft zu gering, um die sich gegenseitig abstoßenden Atomkerne dicht genug zusammen zu bringen. Mit der Gravitation alleine wäre diese Kraft aber selbst in unserer Sonne nicht groß genug. Also braucht es zur Erklärung die Quantenmechanik und den Tunneleffekt.

Nach der Quantenmechanik kann man für jeden Punkt in einem Raum die Wahrscheinlichkeit dafür berechnen, dass man ein bestimmtes atomares Teilchen bei einer Messung dort antrifft. Damit wäre die Wahrscheinlichkeit, dass zwei Atomkerne im inneren der Sonne zusammen treffen, zunächst einmal verschwindend klein. Mit dem Tunneleffekt gibt es aber die Möglichkeit, dass ein Teilchen durch eine Potentialschwelle wie die gegenseitige Abstoßung der Atomkerne hindurch 'tunnelt'. So ergibt sich für das Innere der Sonne nach der Quantenmechanik eine ausreichend große Wahrscheinlichkeit dafür, dass eine Kernfusion zustande kommen kann.

Alle Versuche, eine Kernfusion in einem Reaktor auf der Erde nach dem Druckprinzip in Gang zu bringen, zeigen bisher nur mäßigen Erfolg. Eine kontrollierte Kernfusion kommt dabei immer nur für einen kleinen Bruchteil einer Sekunde zustande. Dabei ist die dem Reaktor zugeführte Energie um ein vielfaches größer als die bei der Fusion gewonnene. Der größte Teil der Energie wird dabei für sehr starke Magnetfelder benötigt, mit denen man das Plasma im Reaktor in einem begrenzten Raum fest hält. Dazu sind sehr komplizierte und aufwändige Apparaturen notwendig.

 

Bisher hat man eine Kernfusion auf der Erde nur unkontrolliert bei einer Fusions- oder Wasserstoffbombe zustande gebracht. Was nach dem Wirbelprinzip möglich ist und mit Schaubergers 'Repulsine' möglicherweise bereits technisch umgesetzt wurde, werde ich in Kapitel 3.4 ausführlich beschreiben. Zunächst geht es aber darum, wie eine Kernfusion in einem Plasma-Potentialwirbel zustande kommen und ablaufen kann.

Die Grundlage für diese Erklärung ist wieder das Zeitschalenmodell. Danach bildet jedes atomare Teilchen in der 'Raumzeit' eine durchgehende (Zeit-) Schale oder einen 'Strom', die sich in Zeitrichtung Z durch das Universum erstreckt. In Raumrichtung R sind diese Schalen durch 'Felder' miteinander verbunden, die für uns unsichtbar den gesamten Raum durchdringen und dabei wiederum eine Schalenstruktur aufweisen.

In Abbildung 2.2.2:1 ist das am Beispiel eines Wasserstoffatoms gezeigt. Die äußeren Schalen in Raumrichtung R verlaufen jeweils von einem Elektron e der Atom-Hülle zu einem Up-Quark u des Atomkerns. Auf ihren Weg durchdringen sie sich jeweils senkrecht, was in der Zeichenebene nur verzerrt dargestellt werden kann. Sie entsprechen dem elektromagnetischen Feld. Zwischen den Up- u und Down-Quarks d des Protons als Atomkern gibt es 'Gluon-Felder', die nach dem gleichen Prinzip aufgebaut sind wie außen zwischen Elektron e und Up-Quark u.

 

Abbildung 2.2.2:1; Aufbau eines (Wasserstoff-)Atoms

 

 

Unten in der Abbildung ist in einem Schnitt durch den Raum die vollständige Schalenstruktur des Wasserstoff-Atoms mit der Elektronenhülle e, den beiden Up-Quarks u und den Down-Quark d gezeigt. Für schwere Elemente ergeben sich im Atomkern komplizierte Strukturen mit Protonen und Neutronen. Der Aufbau des elektromagnetischen Feldes, der für die Betrachtung eines Plasmas wichtig ist, bleibt jedoch gleich.

Deshalb bleibt es hier auch erst einmal bei dem Beispiel des einfachen Wasserstoffs. Wenn wir die Atomkerne nicht näher betrachten, zeigt sich für größere und kleinere Abstände zwischen den Atomen beim elektromagnetischen Feld die in Abbildung 2.2.2:2 gezeigte Situation. Bei der senkrechten Durchdringung kommt es wieder mit der Zeichenebene zu der bereits erwähnten Verzerrung. Denkt man sich das Ganze aber räumlich, kann man sich schon eher rechte Winkel zwischen den Schalen des Feldes vorstellen, obwohl dann von den insgesamt sechs Dimensionen der 'Raumzeit' nur drei zu erkennen wären.

 

Abbildung 2.2.2:2; Elektromagnetisches Feld, Gravitation

 

Das elektromagnetische Feld erstreckt sich immer entgegengesetzt zwischen einer Elektronenhülle e und den Protonen p eines Atomkerns. Dabei ist der Einfluss des Abstandes zwischen Elektronenhülle e und Atomkern p umso größer, je kleiner der Abstand zwischen den betreffenden Atomen ist. So ergibt ein kleinerer Abstand eine geringfügig größere Anziehung. Insgesamt ist sonst die allseitige Anziehungskraft zwischen allen Atomen des Universums gleich groß und hebt sich vollständig gegenseitig auf. Auf ein Atom wirken so allseitig immer annähernd gleich große Kräfte. Erst wenn elektrische Ladungen verschoben werden oder fehlen, entsteht eine sehr starke Magnetkraft.

Mit den hier gezeigten Verhältnissen ergibt sich, dass die Gravitation keine eigenständige Kraft ist, sondern sich mit dem beschriebenen Verhältnis zwischen dem Abstand zwischen den Atomen und dem Radius eines Atoms als kleines Ungleichgewicht aus der elektromagnetischen Kraft ergibt. Welche Auswirkungen das bei den großen Abständen des Weltalls hat, wird in Kapitel 2.3 zum Thema 'Elektro-Gravitation' noch detailliert beschrieben. Im Plasma eines Sterns geht es aber in atomarer Größenordnung zunächst einmal vorrangig um die Wirkung von Magnetkräften aus den Ladungen der Protonen und Elektronen.

 

Auch wenn bei einem Plasma die Schalen der Elektronen zwischen den Atomkernen hindurch laufen und sich dabei weit von den Atomkernen entfernen, ändert das nichts an den Verhältnissen im elektromagnetischen Feld, wie sie in Abbildung 2.2.2:2 dargestellt sind. Durch das Fehlen der Atom-Hüllen können aber in einem Plasma Elektronen leicht mit hoher Geschwindigkeit auf einen Atomkern treffen. Je schneller dabei der Wirbel dreht, desto häufiger kann das geschehen.

Wenn ein schnelles Elektron auf ein Proton trifft, wird eins der Up-Quarks darin in ein Down-Quark umgewandelt. Das nennt man Elektronen-Einfang. Dabei wird aus dem Proton ein Neutron, und aus dem Elektron wird ein Elektron-Neutrino. Diese Umwandlung wird schwache Wechselwirkung genannt. Betrifft diese Umwandlung einen schwereren Atomkern, bleibt die Massenzahl gleich und die Ordnungszahl, die für das jeweilige chemische Element steht, wird um eins kleiner.

So entsteht ein schwereres Isotop des Elementes mit der kleineren Ordnungszahl. Dieses Isotop kann dann stabil oder instabil sein. Wenn es instabil ist, erfolgt je nach Halbwertzeit des Isotops, nach einer gewissen Zeit ein Beta-Minus-Zerfall, bei dem das Neutron wieder zum Proton wird, und ein Elektron als negativ geladene Beta-Strahlung abgegeben wird. Dabei gibt die Halbwertzeit an, nach welcher Zeit jeweils nur noch die halbe Anzahl der Atomkerne des instabilen Isotops vorhanden sind.

 

Beim Wasserstoff gibt es kein Element mit einer kleineren Ordnungszahl. Wenn also ein schnelles Elektron auf ein einzelnes Proton als Wasserstoff-Kern trifft, wird es in ein Neutron umgewandelt und verbleibt im Plasma. Das Elektron durchdringt danach als Elektron-Neutrino ohne weitere Wechselwirkungen die Weiten des Weltalls.

Das Neutron hat mit einer Halbwertzeit von etwa siebzehn Minuten für atomare Verhältnisse eine lange Lebensdauer. Außerdem wird es wegen seiner neutralen Ladung nicht wie andere Atomkerne von den Protonen abgestoßen. Es müsste sich also ohne Widerstand an einen Atomkern anlagern und mit diesem verschmelzen können. Wenn das möglich ist, kann der Elektronen-Einfang an einem Proton im Plasma zur Kernfusion führen.

Ein Neutron besteht aus zwei Down-Quarks und einem Up-Quark. Gemäß der Schalenstruktur in Abbildung 2.2.2:1 können sich dabei die beiden kleinen Down-Quarks nur innerhalb der Schale des Up-Quarks befinden. Dabei kann ein negativ geladenes Elektron nur mit dem positiv geladenen Up-Quark in Verbindung stehen. Eine Verbindung des Up-Quarks eines Atomkerns zu den Down-Quarks in einem Neutron passt nicht zu der gezeigten Schalenstruktur des elektromagnetischen Feldes.

Eine solche Verbindung würde einem 'Gluon-Feld' entsprechen, das nur bei den sehr kleinen Abständen in einem Atomkern zustande kommt und keine Elektron-Schalen durchdringen kann. Ein einzelnes Neutron passt also in die Struktur des elektromagnetischen Feldes nicht hinein. Wie kann es dann aber unter dem Einfluss dieses Feldes eine so lange Lebensdauer besitzen?

 

Aufschluss darüber geben kurzlebige atomare Teilchen, die aus ein Quark und einem Antiquark bestehen und eine neutrale Ladung besitzen: neutrale Mesonen wie Pionen oder Kaonen. Das neutrale Pion π0 besteht nach dem Zeitschalenmodell aus einem Up-Quark und einem Anti-Down-Quark, das sich in einen Mischzustand mit einem Anti-Up-Quark und einem Down-Quark befindet. Nur dieser Mischzustand aus Teilchen und ihren Antiteilchen ermöglicht dabei die neutrale Ladung dieses Mesons.

Nach der anerkannten Theorie befinden sich ein Up-Quark und Anti-Up-Quark in einen Mischzustand mit einem Down-Quark und einem Anti-Down-Quark. Nach dem Zeitschalenmodell ist das nicht möglich, da es bei Teilchen und Antiteilchen der gleichen Art keine ineinander liegenden Schalen geben kann. Auf die Eigenschaften der Mesonen hat diese andere Sichtweise jedoch keinen Einfluss.

Mesonen bestehen aus jeweils zwei Quarks und gehören damit zu den Bosonen. Teilchen, die aus drei Quarks bestehen, wie Protonen oder Neutronen, werden Fermionen genannt. Bosonen und Fermionen haben einen Unterschiedlichen Spin oder Drehimpuls, der für ein ein einzelnes Quark immer 1/2 oder -1/2 beträgt. Damit ergibt sich der Spin bei Mesonen zu -1, 0 oder 1 und bei Fermionen aus drei Quarks zu -3/2, -1/2, 1/2 oder 3/2. Elektronen sind wie Quarks Fermionen mit dem Spin 1/2 oder -1/2.

 

Auf die sehr theoretische Bedeutung dieser Bruchzahlen, die genau genommen Anteile des Planckschen Wirkungsquantums sind, wird hier nicht weiter eingegangen, obwohl es nach dem Zeitschalenmodell etwas einfacher zu verstehen wäre. Das Nachfolgende würde jedoch mit einer entsprechenden Erklärung nicht verständlicher. Daher verweise ich an dieser Stelle auf die Literatur zum Thema Atomphysik und Quantenmechanik.

Wenn bei den Mesonen ein Mischzustand zwischen Teilchen und Antiteilchen die neutrale Ladung und damit eine Verbindung zum elektromagnetischen Feld herstellt, könnte es ja bei einem einzelnen Neutron auch einen solchen Mischzustand geben. In Abbildung 2.2.2:3 ist in der Raum-Zeit-Ebene gezeigt, wie ein Neutron in diesem Zustand mit dem elektromagnetischen Feld in Verbindung steht. Man erkennt, dass beim Mischzustand des Neutrons u + d + d / u̅ + d̅ + d̅ ein Anti-Up-Quark u̅ an die Stelle des fehlenden Elektrons e tritt und die Verbindung mit den Up-Quarks der umgebenden Atomkerne p herstellt. Unten in Abbildung 2.2.2:3 ist zu erkennen, dass die Lage der Schalen des Neutrons wie die neutrale Ladung im Mischzustand unverändert erhalten bleiben.

 

Abbildung 2.2.2:3; bosonischer Mischzustand beim Neutron

 

 

Bei der Forschung in der Atomphysik wurde nach einem Mischzustand des Neutrons nie gesucht. Trotzdem gibt es einen besonderen Zustand der Materie, bei dem Atomkerne den ganzzahligen Spin eines Bosons aufweisen, obwohl sie aus Protonen und Neutronen und damit aus Fermionen bestehen. Dieser Zustand der Materie wird Bose-Einstein-Kondensat genannt.

Albert Einstein vermutete einen bosonischen Urzustand der Materie am absoluten Nullpunkt der Temperatur. Um diese Aussage zu überprüfen führte man mehrere Versuche durch. Bei ihnen wurden, vereinfacht dargestellt, verschiedene Stoffe bei hohem Druck bis nahe an den absoluten Nullpunkt bei -273°C herunter gekühlt. Dann wurde der Druck schlagartig abgesenkt. Das dabei entstehende Kondensat zeigte kurzzeitig den ganzzahligen Spin eines Bosons, was auf einen bosonischen Zustand gemäß Einstein schließen lässt. Die Ergebnisse der Versuche lassen sich folgendermaßen erklären:

Bei der plötzlichen Absenkung des Druckes in der Nähe des absoluten Nullpunktes der Temperatur wird Energie für die Ausdehnung benötigt. Normalerweise stammt diese Energie von den temperaturbedingten Bewegungen der Moleküle. So entsteht Verdampfungs-Kälte.

Knapp am absoluten Nullpunkt ist aber nicht genug Wärmeenergie vorhanden. Nur die Elektronen in den Atom-Hüllen besitzen dann noch Bewegungsenergie. Also stürzen sie in die Atomkerne und wandeln dort mit der schwachen Wechselwirkung Protonen in Neutronen um. Wenn das Kondensat dann Wärme aus der Umgebung aufnimmt, wird dieser Zustand schnell wieder beendet. Es ist aber kurzzeitig der ganzzahlige Spin von Bosonen messbar.

 

Wenn also beim Bose-Einstein-Kondensat die Protonen in den Atomkernen kurzzeitig in Neutronen umgewandelt werden, deutet der ganzzahlige Spin auf einen Mischzustand aus Teilchen und Antiteilchen beim Neutron hin. Bei diesem Mischzustand besteht das Neutron zwei mal aus drei Quarks, also insgesamt aus sechs Quarks, was einen ganzzahligen Spin zur Folge hat.

Aus dem Proton oder Neutron als Fermion wird also kurzzeitig ein Boson. Wenn die Materie sich ohne die Energie aus der Temperatur in einen Urzustand umwandelt, wie es Einstein vermutete, ist davon auszugehen, dass dabei zuerst die Elektronen ihre Bewegungsenergie abgeben. Dann kommt es zu dem beschriebenen Elektronen-Einfang, bei dem Neutronen entstehen.

 

Kommen wir nun zum elektromagnetischen Feld zurück. Wenn wir den Verlauf der Schalen in Abbildung 2.2.2:4 zwischen zwei Neutronen und einem Neutron und einem Atom betrachten, erkennen wir, dass die Anziehung zwischen zwei Neutronen geringfügig größer sein müsste als zwischen einem Neutron und einem Atom. Zwischen Neutron und Atom muss einer der beiden Anteile des Feldes die Schalen eines oder mehrerer Elektronen durchdringen.

Damit ist, analog zu der Erklärung für die Gravitation, der Weg länger und die Kraft entsprechend kleiner. Zwei durch Elektronen-Einfang entstandene Neutronen haben dann im Mittel etwa siebzehn Minuten Zeit, in der sie sich aufeinander zu bewegen und dann zusammen treffen können.

 

Abbildung 2.2.2:4; Felder zwischen Neutronen und Atomen

 

 

Wenn zwei Neutronen aufeinander treffen, gibt es sofort einen Beta-Minus-Zerfall. Dabei wird ein Neutron zu einem Proton, und es entsteht ein Kern des schweren Wasserstoffs oder Deuteriums 1H2. Das ist die erste Stufe einer Kernfusion, bei der bereits eine sehr große Menge Energie frei gesetzt wird. Wie als weitere Schritte schwerere Elemente wie Helium He, Lithium Li, Beryllium Be, Bor B, usw. entstehen können, kann man sich gut mit Hilfe eine Nuklidkarte verständlich machen.

Tabelle 2.2.2:1 zeigt die Nuklidkarte für die genannten leichten Elemente von Wasserstoff H bis Bor B. Für jedes Element steht vor dem Kurzzeichen (H, He, Li, Be, B) jeweils tiefgestellt die Ordnungszahl und dahinter hochgestellt die Massenzahl: für schweren Wasserstoff also 1H2. Von links unten nach rechts oben zeigen sich in der Tabelle die stabilen Elemente in einer Diagonale. Oberhalb der Diagonale zerfallen die Atomkerne als Beta-Minus-Strahler, geben also Elektronen als Strahlung ab.

Sie sind in runden Klammern in die Tabelle eingetragen ((1H3) ... (5B13)). Unterhalb der Diagonale stehen Beta-Plus-Strahler, die bei ihrem Zerfall Anti-Elektronen oder Positronen als Strahlung abgeben. Sie stehen in eckigen Klammern ([4Be7] und [5B8]). So ergibt sich von links unten nach rechts oben ein Streifen aus allen bekannten Isotopen mit messbaren Lebensdauern.

 

Tabelle 2.2.2:1; Nuklidkarte der kleinsten Atomkerne

 

Damit schwerere Elemente als Deuterium oder schwerer Wasserstoff 1H2 entstehen können, genügt es nicht, dass sich, wie in Abbildung 2.2.2:4 gezeigt, zwei Neutronen n miteinander verbinden. Die Neutronen in den Atomkernen sind fest in eine Schalenstruktur eingebunden - mehr dazu in Kapitel 2.5. Dabei gibt es keinen bosonischen Mischzustand, der eine Verbindung der Neutronen zum elektromagnetischen Feld herstellt. Diese Verbindung erfolgt ausschließlich über die Up-Quarks der Protonen.

Es gibt aber wie bei der Gravitation ein kleines Ungleichgewicht bei der allseitigen Anziehung zwischen einzelnen Neutronen und Atomkernen, das bei kleiner werdenden Abständen immer größer wird. Die in Abbildung 2.2.2:4 gezeigte, ebenfalls schwache Anziehung zwischen zwei Neutronen gibt es nur bei kleinen Abständen. In einem Plasma müssen bei größeren Abständen beide Anteile des Feldes jeweils viele durchlaufende Elektronenschalen durchdringen, sodass dann die Anziehung zwischen Atomkernen und Neutronen etwa gleich groß ist wie zwischen zwei Neutronen. Dann überwiegt die der Gravitation entsprechende Wirkung.

So werden einzelne Neutronen bei kleinem Abständen etwas stärker von den Atomkernen angezogen, sodass es schließlich zu einer Anlagerung eines Neutrons an einen Atomkern kommt. So kann der schwere Wasserstoff 1H2 als erste Stufe der Kernfusion statt mit einer Verbindung zweier Neutronen n und Beta-Minus-Zerfall auch durch Anlagerung eines Neutrons n an einen Wasserstoff-Kern 1H1 entstehen.

 

Wenn sich nun ein weiteres Neutron n an den schweren Wasserstoff 1H2 anlagert, entsteht Tritium 1H3, das mit 12,3 Jahren Halbwertzeit eine sehr lange Lebensdauer besitzt. Damit ist mehr als reichlich Zeit dafür vorhanden, dass sich wiederum ein Neutron an das Tritium 1H3 anlagert. Dabei entsteht zunächst ein Wasserstoff-Isotop 1H4 mit der Massenzahl 4, das keine messbare Lebensdauer besitzt und sich sofort mit einem Beta-Minus-Zerfall in Helium 2He4 umwandelt. Alternativ kann das Tritium 1H3 auch ein schnelles Elektron einfangen und sich mit der schwachen Wechselwirkung in Helium 2He3 umwandeln. Mit der Anlagerung eines weiteren Neutrons wird dann aus dem Helium 2He3 ebenfalls Helium 2He4.

Wenn sich nun wiederum ein Neutron n an das Helium 2He4 anlagert, gibt es nach einem sofortigen Beta-Minus-Zerfall kein Isotop mit einer messbaren Lebensdauer. Dass entstehende Lithium-Isotop 3Li5 müsste sofort wieder mit einem Beta-Plus-Zerfall zu dem Helium-Isotop 2He5 zerfallen, das ebenfalls keine messbare Lebensdauer besitzt.

 

Entweder endet also mit dem Helium 2He4 die Kernfusion, oder es gibt eine Möglichkeit, dass sich zwei Neutronen an das Helium 2He4 anlagern. Dann kann das Helium-Isotop 2He6 entstehen, das dann mit 0,86 Sekunden Halbwertzeit als Beta-Minus-Strahler zu Lithium 3Li6 zerfällt.

Eine ähnliche Situation ergibt sich mit dem Lithium-Isotop 3Li8, das sich zuerst als Beta-Minus-Strahler zum Beryllium 4Be8 ohne messbare Lebensdauer und dann sofort als Alfa-Strahler zu zwei Helium-Kernen 2He4 umwandelt. Auch hier werden zwei Neutronen für das Lithium-Isotop 3Li9 benötigt, das dann als Beta-Minus-Strahler zum stabilen Beryllium 4Be9 zerfallen kann.

 

Die Wahrscheinlichkeit dafür, dass im selben Augenblick zwei Neutronen auf einen Atomkern treffen, ist bei den schnellen Bewegungen in einem Plasma sehr gering. Eine Anlagerung zweier Neutronen ist aber möglich, wenn ein Atomkern das erste Neutron so lange bei sich fest halten kann, bis das zweite Neutron eintrifft. Die bereits beschriebene schwache Anziehung zwischen Neutron und Atomkern kann im Plasma bei kleinen Abständen in der Größenordnung von Atomkernen recht groß werden, da es keine festen Elektronenschalen gibt, die das Neutron auf Distanz halten.

Diese Anziehung resultiert aus dem gleichen Ungleichgewicht im elektromagnetischen Feld wie die Gravitation, und wird daher auch entsprechend dem Newtonschen Gravitationsgesetz mit dem Quadrat des Abstandes kleiner. Abbildung 2.2.2:5 zeigt, wie dabei das Anti-Up-Quark eines Neutrons im Mischzustand u +u +d / u̅ + u̅ + d̅ mit der äußeren Up-Quark-Schale u eines Atomkerns auf Kurze Distanz in Verbindung steht. Dabei verhindert nur das vom Up-Quark u des Neutrons zu einem irgendwo im Plasma befindlichen Elektron e verlaufende Feld, dass Neutron und Atomkern direkt aufeinander treffen. So können im Plasma ein oder mehrere Neutronen an einem Atomkern fest gehalten werden, bis sich die Bedingungen für eine Anlagerung ergeben.

 

Abbildung 2.2.2:5; Anziehung eines Neutrons durch einen Atomkern

 

Beim Helium ist diese Bedingung ein zweites Neutron. Wenn sich jedoch ein Neutron an Lithium 3Li7 anlagert, entsteht 3Li8 ,das mit nur 0,84 Sekunden Halbwertzeit als Beta-Minus- und Alfa-Strahler zu zwei Helium-Kernen zerfällt. Da nur im Mittel 0,84 Sekunden für die Anlagerung eines zweiten Neutrons zur Verfügung stehen, würde die Kernfusion nun weitgehend im Kreis herum führen.

Wenn aber die Bindungsenergie, die bei einer Anlagerung eines Neutrons zugeführt werden muss, sehr groß ist, kann man annehmen, dass es im Plasma eines Potentialwirbels zunächst einmal zu gar keiner Anlagerung kommt, wobei ein oder mehrere Neutronen nur am Kern fest gehalten werden. Dann kann mit zwei Neutronen Lithium 3Li9 entstehen, das sich nach im Mittel 0,171 Sekunden mit dem Beta-Minus-Zerfall zum stabilen Beryllium 4Be9 umwandelt. Bei den kurzen Halbwertzeiten kann man davon ausgehen, dass die Bindungsenergie entsprechend groß ist.

 

Bei der anerkannten Physik kennt man kein Festhalten eines Neutrons an einem Atomkern. Das liegt vor allem daran, dass noch nie Versuche mit einem Plasma-Potentialwirbel durchgeführt wurden. Bei den üblichen Kollisionen mit hoher Energie in Teilchenbeschleunigern gibt es keine Bedingungen, die einen solchen Vorgang ermöglichen. Nach einer Kollision werden immer alle Reaktionsprodukte mit hoher Geschwindigkeit zu allen Seiten weg geschleudert. Bei der Kernspaltung in einem Reaktor ergeben sich mit der Kettenreaktion sehr ähnliche Bedingungen. Da kann es kein Festhalten eines Neutrons an einem Atomkern geben. Folglich hat man es auch noch nie beobachtet.

Mit dem Vorstehenden sind die wichtigsten Zusammenhänge zu einer Kernfusion durch Neutronen-Anlagerung im Elektronen-Potentialwirbel eines Sterns erklärt. In Kapitel 2.5 wird bei der Schalenstruktur der Atomkerne noch einmal auf die Kernfusion im Potentialwirbel eingegangen. Dabei geht es dann um Art und Anzahl der verschiedenen stabilen Isotope bei den jeweiligen Elementen. Außerdem wird erklärt, wie die Neutronen in die Kernstruktur eingefügt sind, wobei nur die Protonen in den Atomkernen mit den Elektronen der Atom-Hülle oder des Potentialwirbels in Verbindung stehen. Für das Vorstehende und auch für das nächste Kapitel genügt dazu die vereinfachte Erklärung am Beispiel des Wasserstoff-Atoms.

2.2.3 Rote Riesen, weiße Zwerge und Supernovae

Auch das, was in einem Stern geschieht, wenn sein Kernbrennstoff zu Ende geht, lässt sich mit dem Wirbelprinzip und einem Elektronen-Potentialwirbel sehr gut erklären. Auch nach der anerkannten Theorie kommt es zu einem Zusammenbruch der Materie in einem Stern, wenn der für die erste Stufe der Kernfusion benötigte Wasserstoff knapp wird.

Je nach Größe des Sterns bläht er sich dann zu einem roten Riesenstern auf oder er explodiert als Nova oder Supernova. Bei einer Explosion bleibt an der Stelle des ehemaligen Sterns meistens ein Neutronenstern mit einer extrem großen Dichte zurück. Bei einem roten Riesen gibt es am Ende seiner Entwicklung einen kleinen weißen Zwerg. Die Dichte eines weißen Zwerges ist ebenfalls sehr groß, aber erheblich geringer als bei einem Neutronenstern.

Nach dem Wirbelprinzip und der Kernfusion durch Neutronen-Anlagerung ist ohne Wasserstoff im Plasma überhaupt keine Fusion möglich. Nur aus dem Wasserstoff können durch Elektronen-Einfang die Neutronen entstehen, die sich dann an die Atomkerne anlagern und so schwerere Elemente entstehen lassen.

 

Wenn also der Wasserstoff knapp wird, verlangsamt sich zunächst die Kernfusion. Die Temperatur sinkt, und das Plasma verdichtet sich unter dem Einfluss der Gravitation. Bei einer höheren Dichte steigt dann die Temperatur wieder an. Dabei werden auch wieder mehr Elektronen von den Wasserstoff-Kernen eingefangen, und die Fusion läuft wieder schneller ab. Das könnte nun unendlich so weiter gehen, wenn es keine minimale Dichte für ein Plasma gäbe.

Diese minimale Dichte ergibt sich aus einem kleinsten möglichen Raum, den die Elektronen im Plasma ausfüllen können: dem so genannten Phasenraum. Nach dem Pauli-Prinzip oder Pauli-Verbot kann sich in diesem Phasenraum immer nur ein Fermion der gleichen Art, also immer nur ein Elektron, befinden.

Damit ergibt sich eine Grenze für die Dichte eines Plasmas aus dem Volumen der Atomkerne zuzüglich der Summe der Phasenräume aller durch das Plasma laufenden Elektronenschalen. Diese Dichte kann nur überschritten werden, wenn weniger negativ geladene Elektronen das Plasma durchdringen, als es positive Ladungen in den Atomkernen gibt. So entsteht mit zunehmender Dichte eine immer größere Kraft, die das Plasma in alle Richtungen auseinander zieht.

 

Mit weniger Elektronen verringert sich gleichzeitig die Intensität der Kernfusion, sodass immer mehr Elektronen aus dem Plasma hinaus gedrängt werden, bis schließlich die Atomkerne mit einer großen Kraft auseinander gerissen werden. Wenn zunächst nur wenige Elektronen im Plasma fehlen, beschleunigt die höhere Temperatur bei der größeren Dichte die Fusion wieder. Dabei stellt sich ein wenig stabiles Gleichgewicht ein, bei dem die Intensität der Fusion und damit die Leuchtkraft des Sterns immer stärker zu pulsieren beginnt.

Dieser Zustand kann eine lange Zeit andauern, bis das Gleichgewicht schließlich kippt, und eine größere Dichte keine erneute Ausdehnung mehr bewirken kann. Wie stark das Plasma dann auseinander gerissen wird, hängt von der Masse des Sterns ab. Eine große Masse bewirkt, dass viele Elektronen aus dem Plasma heraus gedrängt werden und dabei die Atomkerne dicht aneinander kommen. So ergibt sich eine sehr starke Abstoßung zwischen den positiv geladenen Atomkernen.

 

Betrachten wir dazu Abbildung 2.2.1:2 in Kapitel 2.2.1. Wenn viele Elektronen aus dem Plasma hinaus gedrängt sind, gibt es im wesentlichen nur noch einen Elektronenwirbel, der innen entlang der Drehachse durch den Stern verläuft und außen das Plasma allseitig umgibt. Der größte Teil des Plasmas wird nun von den äußeren Elektronen vom Zentrum weg gezogen. Ein kleinerer Teil wird jedoch vom inneren Wirbel angezogen.

Wasserstoff besitzt bei einer einfachen positiven Ladung nur ein Proton als Kern und keine Neutronen. Daher wird er erheblich stärker beschleunigt als die schwereren Elemente, bei denen es zu jedem Proton mindestens auch ein Neutron mit der gleichen Masse gibt. So gelangt der Wasserstoff zuerst nach außen und bildet dann mit den Elektronen ein Plasma, in dem eine Kernfusion mit maximaler Intensität ablaufen kann.

Dieses Plasma leuchtet wie ein neu entstehender Stern - daher die Bezeichnung Nova - hell auf und dehnt sich immer weiter aus. Der Elektronenwirbel des Wasserstoff-Plasmas bremst dabei diese Ausdehnung. Bei relativ kleiner Masse kommt die Ausdehnung dann bei geringer Dichte zum Stillstand. Es entsteht ein roter Riesenstern.

 

Ist die Masse größer, erlischt das Plasma nach kurzer Zeit, und die Materie des Sterns wird weit in das Weltall hinaus geschleudert. Am Anfang ist es reiner Wasserstoff, dem dann einige Zeit später die schweren Elemente folgen. Je nach Masse des Sterns und Intensität dieses Ausbruchs spricht man dabei von einer Nova oder Supernova. Die nach innen gezogenen Atomkerne treffen mit dem sehr starken Elektronenwirbel im Zentrum zusammen. Dabei wandeln die Elektronen alle Protonen mit der schwachen Wechselwirkung in Neutronen um. So entsteht im Zentrum eine sehr dichte Neutronen-Materie.

Wenn ein roter Riese entsteht, zeigt sich nach dem Ausbruch die in Abbildung 2.2.3:1 gezeigte Situation. Um die Neutronen-Materie im Zentrum herum bildet sich aus den schwereren Elementen mit einem Elektronen-Potentialwirbel ein weißer Zwergstern. Aus dem Wasserstoff entsteht viel weiter außen der Elektronen-Potentialwirbel des roten Riesen. Der innere Wirbel führt für beide als Schalen umeinander herum entstandenen Sterne zwischen der Neutronen-Materie und dem Plasma des weißen Zwerges hindurch.

 

Abbildung 2.2.3:1; Roter Riese und Weißer Zwerg

 

 

Bei einer Nova oder Supernova ist die Situation zunächst sehr ähnlich. Die Ausdehnung kommt aber nicht zum Stillstand. Das äußere Wasserstoff-Plasma dehnt sich immer weiter aus, bis der Potentialwirbel instabil wird. Dann erhalten die Atomkerne ihre Elektronenhüllen zurück. Das Plasma hört auf zu leuchten und wird zu einer Gaswolke, die sich nun immer weiter in den Weltraum ausbreitet.

Innen bleibt von den schwereren Elementen nur ein kleiner Teil zurück. Der gesamte Rest folgt dem Wasserstoff hinaus in den Weltraum. Bei einer Nova ist der zurück bleibende Teil relativ groß, sodass ein sehr dichter weißer Zwerg entsteht. Bei einer Supernova verbleibt dagegen nur wenig von den schwereren Elementen um die Neutronen-Materie herum. Es entsteht ein Neutronenstern, dessen Dichte in der Größenordnung von Atomkernen liegt.

 

Da der äußere Wirbel eines roten Riesen am Anfang aus reinem Wasserstoff besteht, ist auch bei sehr geringer Dichte eine Kernfusion möglich. Das Plasma hat dann eine relativ niedrige Temperatur und der Stern leuchtet rötlich. Ein roter Riese kann so viele tausend oder Millionen Jahre lang leuchten. Wenn sich dann schwerere Elemente gebildet haben, und immer weniger Wasserstoff für den Elektronen-Einfang zur Verfügung steht, wird der Potentialwirbel Instabil.

Er beginnt immer stärker zu pulsieren. Wenn er sich dabei ausdehnt, erlischt immer ein kleiner Teil des Plasmas am äußeren Rand. Dort ist die Intensität des Wirbels zu klein für die Stabilität der Elektronen zwischen den Atomkernen. Das erloschene Plasma wird dann als Gas von den Elektronen des Wirbels abgestoßen und so in den Weltraum hinaus befördert. Auf diese Weise wird die äußere Schale des roten Riesen immer dünner, bis sie schließlich vollständig erlischt. Dann verbleibt nur noch ein kleiner Rest des Plasmas als Gaswolke mit geringer Dichte in großem Abstand um den kleinen weißen Zwerg herum.

 

Nach dem Wirbelprinzip betrachtet, ist der Übergang von einem großen roten Riesen zu einer Nova fließend. Und es gibt astronomische Beobachtungen, die einen solchen Übergang zeigen: wiederkehrende Novae.

Wenn die Masse so groß ist, dass ein roter Riese gerade noch entstehen kann, ist anzunehmen, dass dessen äußere Hülle sehr instabil ist und entsprechend stark pulsiert. Wenn dabei die Ausdehnung groß ist, entsteht immer wieder für eine kurze Zeit eine Kugelschale mit sehr großer Oberfläche, die entsprechend viel Licht abstrahlt. Dann kann man die selbe Nova in relativ gleichmäßigen Abständen mehrmals hintereinander beobachten.

Da ein solches Ereignis nur sehr selten auftritt, gibt es nur wenige Beobachtungen dazu aus weit entfernten Teilen des Weltalls. Durch die große Entfernung ist dabei nur das helle Aufblitzen bei der Ausdehnung im Fernrohr zu erkennen. Da Novae und Supernovae im kosmischen Maßstab Ereignisse von extrem kurzer Dauer sind, kann man immer nur hoffen, dass man irgendwo einmal so etwas beobachtet. Das Universum systematisch nach ihnen absuchen zu wollen, wie man es beispielsweise bei der Suche nach Planeten in anderen Sonnensystemen macht, wäre sinnlos.

 

Kommen wir nun zu dem weißen Zwerg oder Neutronenstern, der beim Ausbruch einer Nova oder Supernova im Zentrum verbleibt. Wenn er in einem optischen Fernrohr zu sehen ist, muss es einen Elektronen-Potentialwirbel und Plasma um die Neutronen-Materie in seinem Zentrum herum geben.

Die Neutronen-Materie besitzt eine so große Dichte, dass die elektromagnetischen Wellen, die ihre Bewegungen aufgrund der Temperatur erzeugen, zu Radiowellen auseinander gezogen werden. Ohne einen Plasmawirbel außen herum und das Licht, das von ihm ausgestrahlt wird, wären sie nur mit Radioteleskopen zu entdecken.

Die geometrischen Verhältnisse sind bei einem Ausbruch als Nova oder Supernova und beim Entstehen eines roten Riesen immer gleich. So ergibt sich unabhängig von der Masse auch immer ein gleich großer Anteil für die Neutronen-Materie. Bei einem Stern mit großer Masse wird lediglich erheblich mehr von der Materie aus schwereren Elementen in den Weltraum hinaus geschleudert. Bei einen roten Riesen bleibt diese Materie vollständig in dem weißen Zwerg, woraus sich eine erheblich geringere Dichte als bei einem Neutronenstern ergibt.

 

Ohne einen Kern aus Neutronen-Materie wäre bei einem weißen Zwerg nach dem Wirbelprinzip keine große Dichte möglich. Er hätte dann die geringe Dichte eines roten Zwergsterns und eine relativ niedrige Temperatur. Statt weißem Licht würde er nur schwaches rötliches Licht abgeben. Wenn sein Wasserstoff aufgebraucht wäre, würde er, wie für die äußere Hülle eines roten Riesen beschrieben, einfach erlöschen. So geschieht es auch bei allen kleinen Sternen einschließlich der Zentralsterne im Inneren der Planeten.

Unter dem Einfluss der großen Masse aus Neutronen in seinem Zentrum werden bei einem weißen Zwerg ständig einige Elektronen aus seinem Plasma heraus gedrückt. Dabei wird wie bei einer Supernova-Explosion der Wasserstoff stärker angezogen. So gelangt er im Plasma nach außen und bildet dort die Grundlage für eine weitere Kernfusion, die einen weißen Zwerg hell leuchten lässt.

Es gelangen ebenfalls ständig Atomkerne in den Inneren Elektronenwirbel, werden in Neutronen umgewandelt und lagern sich dann an den Neutronen-Kern an. Der Potentialwirbel gewinnt dabei seine Antriebskraft sowohl aus der Corioliskraft der Materie, die sich an den Kern anlagert als auch aus der Fusion mit dem verbliebenen Wasserstoff.

 

Bei einem Neutronenstern ist der Potentialwirbel mit dem leuchtenden Plasma im Verhältnis zum Kern sehr klein. Daraus ergibt sich seine große Dichte und seine geringe Leuchtkraft. Damit die Fliehkraft der extrem starken Gravitation des Neutronen-Kerns entgegen wirken kann, dreht sich ein Neutronenstern extrem schnell um die eigene Achse.

So entstehen bei einem Pulsar Impulse aus Radiowellen in Abständen von weniger als einer Sekunde bis etwa drei oder vier Sekunden. In Abbildung 2.2.3:2 ist gezeigt, wie diese Impulse zustande kommen. Der kleine Plasma-Potentialwirbel um einen großen Neutronen-Kern herum führt bei seiner schnellen Drehung eine starke Präzessionsbewegung aus, sodass der Plasma-Ring in einem steilen Winkel um die Drehachse herum taumelt. Dabei wird der Blick zum Neutronen-Kern vom rotierenden Potentialwirbel abwechselnd verdeckt und wieder frei gegeben. Immer wenn der Blick dann frei ist, gibt es einen Radio-Impuls.

 

Abbildung 2.2.3:2; Neutronenstern, Pulsar

 

Zu vielen Pulsaren kennt man ein entsprechendes Objekt im optischen Bereich. Wegen der geringen Leuchtkraft eines Neutronensterns ist bei einer großen Entfernung das Objekt optisch oft nur schwach oder auch gar nicht zu erkennen. Da ständig Materie zum Neutronen-Kern gelangt, wird der Wirbel mit dem Plasma immer kleiner und stürzt am Ende vollständig in die Neutronen-Materie. Daher kann man annehmen dass viele der bekannten Radioquellen ohne eine Entsprechung im optischen Bereich solche Neutronensterne sind.

Nach dem allgemein anerkannten Druckprinzip ist es letztlich unklar, wie eine Supernova-Explosion zustande kommt. Im Inneren eines Sterns sollen ja Druck und Temperatur so groß sein, dass die Atomkerne dicht genug für eine Kernfusion zusammen kommen. Warum sollte der Stern aber dann bei noch größerem Druck plötzlich explodieren? Dazu müsste doch die Kernfusion schlagartig aussetzen, sodass Druck und Temperatur ebenso schlagartig ansteigen. Dafür gibt es nach dem Druckprinzip keine plausible Erklärung. Die Menge des Kernbrennstoffs wird doch kontinuierlich immer kleiner.

 

Auch der Vergleich der Explosion mit einer Wasserstoff- oder Fusionsbombe ist nicht plausibel. Wie soll es dann bei hohem Druck und hoher Temperatur überhaupt zu einer kontrolliert ablaufenden Kernfusion kommen können? Das Plasma kann doch nur entweder stabil oder instabil sein. Und wenn es instabil ist, dann explodiert es sofort - wie bei einer Wasserstoffbombe - und nicht erst dann, wenn der Kernbrennstoff zu Ende geht.

Ein Elektronen-Potentialwirbel ist dagegen so lange absolut stabil, wie ausreichend Platz für die das Plasma durchlaufenden Elektronen vorhanden ist. Erst wenn die Elektronen aus dem Plasma hinaus gedrängt werden, kommt es zu einer Ausdehnung oder zu einer Explosion. Ohne Elektronen im Plasma gibt es keinen Elektronen-Einfang und damit auch keine Kernfusion.

Das Plasma bricht dann zusammen und wird von den hinaus gedrängten Elektronen auseinander gerissen. Je größer dabei die Masse der Sterns ist, desto heftiger ist die Ausdehnung. Nach dem 'Prinzip der gegensätzlichen Pole' muss es dabei ein immer gleiches Verhältnis zwischen der Masse der Neutronen-Materie und der nach außen abgestoßenen Masse geben. Der eine Pol strebt dabei auf den Grenzwert 'unendliche Masse' und der andere auf den Grenzwert 'unendliche Ausdehnung' zu. So bleibt das Gleichgewicht im Universum erhalten.

 

Wenn das gesamte Universum also nicht aus dem Gleichgewicht geraten soll, muss JEDER massive Stern, dessen Kernbrennstoff zu Ende geht, als Supernova explodieren. Ein direktes zusammen Fallen zu einem schwarzen Loch, wie man es nach dem Druckprinzip für sehr massive Sterne für möglich hält, kann es nach dem Wirbelprinzip nicht geben.

Der Weg zu einem schwarzen Loch führt dann immer über eine Neutronen-Materie, wie sie bei einer Supernova-Explosion entsteht. Bei einer sehr großen Masse des explodierenden Sterns kann jedoch der Neutronenstern sofort zu einem schwarzen Loch zusammen fallen. Dann bleibt nach der Supernova-Explosion weder im optischen Bereich noch als Quelle von Radiowellen an der Stelle des ehemaligen Sterns etwas zurück.

 

Welche Vorgänge es in vielen Milliarden Jahren geben wird, wenn sich das Universum immer mehr ausdehnt und dabei der Raum immer größer und leerer und die Objekte darin immer dichter werden, wissen wir nicht. Alles Licht, das uns von irgendwo aus dem Weltall erreicht, kommt aus der Vergangenheit. Wir kennen also nur die kosmischen Vorgänge, die sich seit dem Urknall bis heute ereignet haben. Wenn also ein kleiner Stern einfach erlischt und dabei zu einer Gas- und Staubwolke wird, wissen wir nicht, was am Ende der Ausdehnung des Universums aus ihm werden kann.

Die meisten dieser Reste kleiner Sterne werden sicherlich irgendwann in ein schwarzes Loch stürzen. Wenn sie aber nicht in die Nähe eines schwarzen Loches kommen, müssen sie sich zuerst zu Neutronen-Materie umwandeln, bevor sie zu einem sehr kleinen schwarzen Loch zusammen fallen. Das wird dann ganz weit draußen an der äußeren Grenze des Universums geschehen. Dort wird das elektromagnetische Feld vermutlich sehr schwach sein, sodass es weder stärkere Ausdehnungen noch irgendwelche Explosionen geben wird.

 

Der Blick in die Zukunft ist uns versperrt, aber auch beim Blick in die Vergangenheit, also in die Nähe des Urknalls, ergibt sich kein wirklich klares Bild. Es gibt viele sehr starke Quellen von Radiowellen, für die es keine richtig überzeugende Erklärung gibt: die Quasare. Man vermutet, dass sie Riesensterne in einem sehr frühen Universum sind, deren Licht aufgrund einer extremen Rotverschiebung bei der Ausdehnung des Universums nur noch als Radiowellen bei uns ankommt.

Bei der Intensität eines Quasars und der großen Entfernung müssten diese Ur-Sterne so groß wie eine Galaxie gewesen sein. Berechnungen lassen Zweifel aufkommen, ob bei so großen Sternen ein Gleichgewicht zwischen Gravitation und innerem Druck überhaupt möglich sein kann. Nach dem Wirbelprinzip stellt sich dazu noch eine weitere Frage. Da nach diesem Prinzip kein Stern direkt zu einem schwarzen Loch zusammen stürzen kann, müsste es in diesem frühen Universum Supernova-Explosionen dieser Riesensterne gegeben haben. Kosmische Radioobjekte mit einer dazu passenden Intensität sind aber nicht bekannt.

 

Nach dem Wirbelprinzip könnten aber auch die Quasare selbst solche Supernova-Explosionen sein. Dann wären diese Ur-Sterne zwar immer noch extrem groß gewesen, die Größe einer Galaxie hätten sie aber nur für kurze Zeit als Supernova oder 'Hypernova' erreicht. Bei der großen Anzahl der Quasare hätte es aber sehr viele dieser Ur-Sterne geben müssen.

Bei der extremen Dehnung der Zeit vom sichtbarem Licht zu Radiowellen würde sich die kurze Zeit von Tagen oder Wochen, in der sich eine Supernova-Explosion ereignet, zu einem langen Zeitraum von vielleicht mehreren tausend Jahren ausdehnen. So könnten wir den Anfang oder das Ende eines solchen Ereignisses bei einem Quasar überhaupt nicht erkennen. Es gibt erst seit etwa hundert Jahren Radioteleskope. In dieser Zeit wäre die Änderung der Intensität eines Quasars viel zu gering, um daran eine Supernova erkennen zu können.

Auf sehr große Sterne im frühen Universum deuten auch die großen schwarzen Löcher hin, die man im Zentrum jeder Galaxie vermutet. Bei unserer Galaxie wurde ein solches massives schwarzes Loch im Zentrum bereits entdeckt. Sicherlich ist ein massives schwarzes Loch ein idealer Ausgangspunkt für das Entstehen einer Galaxie. Es stellt sich jedoch die Frage, wie groß dieses schwarze Loch war, als unsere Galaxie entstand. Während der vielen Milliarden Jahre, die unsere Galaxie bereits besteht, könnte sehr viel Material in das Loch hinein gefallen sein, sodass es erst mit der Zeit zu seiner heutigen Größe heran gewachsen ist. Bei allen anderen Galaxien könnte es dann ähnlich abgelaufen sein.

 

Eine andere, sehr plausible Erklärung für die Quasare ist, dass sie nicht leuchtende Neutronensterne in unserer Galaxis sind. Die Radiowellen entstehen dann nicht durch eine extreme Rotverschiebung aufgrund einer sehr großen Entfernung, sondern durch die sehr große Dichte eines Neutronensterns. Diese Erklärung schließt die andere mit den Supernova-Explosionen im frühen Universum nicht aus. Vielleicht treffen ja beide zu. Dann muss es auch kurz nach dem Urknall nicht so viele Riesensterne gegeben haben. Der größte Teil der Quasare wären dann nicht leuchtende Neutronensterne in relativ geringer Entfernung.

 

Abschließend zu diesem Kapitel möchte ich nur noch einen Punkt ansprechen. Bei Spektralanalysen der Sterne findet man in der Regel nur die Spektren der leichteren Elemente bis etwa zum Eisen. Daraus schließt man, dass schwerere Elemente als Eisen nur bei Supernova-Explosionen entstehen können. Erst durch den Druck der Explosion soll dabei die Kernfusion die für ihre Entstehung benötigte Energie liefern können.

Nach dem Wirbelprinzip gibt es aber während einer solchen Explosion überhaupt keine Kernfusion. Also müssen die schweren Elemente bereits vorher entstanden sein und werden lediglich von der Explosion ins Weltall hinaus geschleudert.

Die Ergebnisse bei den Spektralanalysen ist dann damit zu erklären, dass das Plasma für Licht nur teilweise durchlässig ist und daher nur aus einer äußeren Schicht Licht abstrahlt. Außen ist die Temperatur für das Entstehen der schweren Elemente nicht hoch genug. Deshalb läuft die Kernfusion dort nur so weit, wie dabei noch Energie frei wird - also bis etwa zum Element Eisen.

Erst weiter innen ist die Temperatur so hoch, dass die Bindungsenergie für schwerere Elemente verfügbar ist. Die Struktur des Plasmas ist mit den durchlaufenden Elektronenschalen ziemlich stabil. Daher dürften sich die Atomkerne darin nicht weit hin und her bewegen. Das gilt vor allem für den inneren Bereich, wo der Druck hoch ist. So kommt es zu keiner Umverteilung der Atomkerne, bei der die schweren Elemente nach außen gelangen können.

 

Für die Existenz der Universums ist von entscheidender Bedeutung, dass zunächst der Wasserstoff und dann die schwereren Elemente immer wieder bei Supernova-Explosionen in das Weltall hinaus geschleudert werden. Nur auf diese Weise kann es überhaupt viele Milliarden Jahre lang Sterne im Universum geben. Dabei ist entscheidend, dass der Wasserstoff als einziges Element mit nur einem Proton als Masse je positiver Ladung immer wieder von den anderen Elementen getrennt wird.

So ist nach jeder Supernova-Explosion wieder weitgehend reiner Wasserstoff für neue Sterne verfügbar. Aus den schwereren Elementen entstehen dann Planeten, was wiederum die Voraussetzung für das Entstehen von Leben ist. Durch seine stärkere Beschleunigung erhält der Wasserstoff eine höhere Geschwindigkeit und einen größeren Impuls, der ohne bremsende Kräfte in Vakuum des Weltalls erhalten bleibt. Bei der Verdichtung einer Gaswolke, wie in Kapitel 2.2 beschrieben, ergibt sich nach dem Wirbelprinzip mit der höheren Geschwindigkeit für den Wasserstoff eine größere Corioliskraft. So entstehen neue Sterne aus weitgehend reinem Wasserstoff und die schwereren Elemente gelangen in die den Stern umkreisende scheibenförmige Gaswolke.

Das Gleichgewicht im Universum nach dem 'Prinzip der gegensätzlichen Pole' wird durch die Aufteilung in schwere Neutronen-Materie und leichte normale Materie bei Supernova-Explosionen aufrecht erhalten. Nach Einstein ist Masse gleich Energie. In der Neutronen-Materie steckt also deren Energie in ihrer großen Masse.

Bei der normalen Materie ist die Masse relativ gering und der größte Teil der Energie steckt in der Temperatur und in der Bewegung der Himmelskörper. Dabei ist die Summe aus nach außen gerichteter Bewegungsenergie und nach innen gerichteter Energie der Masse immer exakt gleich null (Nullsumme). So befinden sich die Kräfte im Universum vom Urknall bis zur maximalen Ausdehnung immer im Gleichgewicht.

2.3 Elektro-Gravitation

Beobachtungen in der Andromeda-Galaxie zeigen, dass sich alle Sterne in den Spiralarmen unabhängig von ihrem Abstand zum Zentrum etwa gleich schnell auf ihrer Bahn bewegen. Nach dem Newtonschen Gravitationsgesetz und den Keplerschen Formeln müssten sie aber zum Zentrum hin immer schneller werden, damit die Fliehkraft der Gravitation entgegen wirken kann. Als Erklärung dafür vermutet man daher zwischen den Spiralarmen eine dunkle Materie, deren Gravitation der im Zentrum wirkenden Anziehungskraft entgegen wirkt. Diese Materie strahlt kein Licht ab, sie ist also dunkel. Deshalb kann man sie mit Fernrohren nicht sehen.

Berechnungen zeigen zudem, dass die in den leuchtenden Sternen enthaltene Masse bei weitem nicht ausreicht, um der immer schneller werdenden Ausdehnung des Universums entgegen zu wirken. Ohne eine dunkle Materie mit einem Vielfachen der Masse der Sterne könnte danach das Universum gar nicht existieren. Zu der gewaltigen Energie des Urknalls müsste es eine entsprechend große dunkle Energie aus der dunklen Materie geben.

Diese für uns unsichtbare und unbekannte Materie oder Energie - Masse ist ja nach Einstein gleich Energie - macht dann den mit Abstand größten Teil des Universums aus. Also suchen Astronomen nun überall im Weltraum nach Gravitationslinsen, die Aufschluss über Menge und Verteilung dieser dunklen Materie geben können.

 

Nach dem Zeitschalenmodell ist die Gravitation, wie in Kapitel 2.2.2 bereits erwähnt, keine eigenständige Kraft, sondern ein Ungleichgewicht in der elektromagnetischen Kraft, das bei Ansammlungen von Materie oder Masse wirksam wird. Das Newtonsche Gravitationsgesetz ist für die Umlaufbahnen der Planeten um die Sonne und die Umlaufbahnen der Monde dieser Planeten uneingeschränkt gültig. Das belegen viele astronomische Beobachtungen.

Wenn aber Magnetismus und Gravitation irgendwie zusammen hängen, kann es doch sein, dass zwischen den Sternen in Galaxien oder sonst irgendwo weit draußen im Weltraum andere Gesetzmäßigkeiten gültig sind. Dann braucht es vielleicht gar keine dunkle Materie oder dunkle Energie, um das Verhalten der Sterne in der Andromeda-Galaxie oder das gewaltige Ungleichgewicht der Kräfte bei der Ausdehnung des Universums zu erklären.

Wenn Magnetkräfte, die jeweils zwischen den Atomkernen und den Elektronenhüllen - also zwischen elektrischen Ladungen - wirksam sind, auch die Gravitation bewirken, kann man diese nach dem Coulombschen Gesetz berechnen. Da jeweils die Elektronenhülle eines Atoms mit dem Kern eines anderen Atoms in Verbindung steht, muss man das Coulombsche Gesetz zwei mal anwenden, und dabei die kleinen Unterschiede bei den Abständen berücksichtigen. Bei geringen Abständen zwischen den Atomen, also bei großer Masse, ist der Abstand von der Elektronenhülle zum Atomkern im Verhältnis zum Abstand der Atome zueinander größer.

Daraus ergibt sich bei kleinerem Abstand eine geringfügig größere Kraft zwischen den Atomen. Dieser Unterschied in der Kraft entspricht der Gravitation. Bei sehr kleinen Abständen in atomarer Größenordnung wird dann die gegenseitige Abstoßung der jeweils negativ geladenen Elektronen wirksam.

 

Weder das Newtonsche noch das Coulombsche Gesetz berücksichtigen die Krümmung des Raumes in den sechs Dimensionen der 'Raumzeit', wie sie Einstein mit seiner Relativitätstheorie bereits beschreibt. Wenn man sich dabei das gesamte Universum als Oberfläche einer höher dimensionalen Kugel vorstellt, können diese beiden Gesetze nur für den Grenzfall einer exakt ebenen Oberfläche gültig sein.

Bei den Planetenbahnen im Verhältnis zur Größe des gesamten Universums trifft das dann mit einer sehr großen Genauigkeit zu. Auch die Abstoßung der Elektronenhüllen hat zwischen einem Stern und seinen Planeten keinen irgendwie erkennbaren Einfluss. Also ist dort das Newtonsche Gravitationsgesetz auch uneingeschränkt gültig.

 

Nach der Relativitätstheorie kann man sich unser dreidimensionales Universum als zweidimensionale Oberfläche einer großen Kugel vorstellen, auf der die Himmelskörper wie kleine Kugeln umeinander herum rollen. Dabei werden die kleinen Kugeln vom Zentrum der großen Kugel angezogen und erzeugen dabei trichterförmige Mulden oder Vertiefungen.

Bei sehr großen Abständen entfernt sich dann eine kleine Kugel, die auf der gekrümmten Oberfläche rollt, von allen anderen Objekten. Dabei folgt sie nur der Krümmung der Mulde, die sie selbst erzeugt, da die Krümmung der Oberfläche der großen Kugel den Einfluss der anderen Himmelskörper verhindert. Bei kleinen Abständen rollt sie dagegen in eine Mulde hinein, die von der Masse aller beteiligten Kugeln mit der anziehenden Kraft erzeugt wird.

Wenn man die anziehenden Kräfte zwischen Elektronenhülle und Atomkern und die abstoßenden Kräfte zwischen den beiden Elektronenhüllen nach dem Coulombschen Gesetz berechnet, ergeben sich in Diagramm 2.3:1 über den Abstand r aufgetragen die gestrichelte Linie für die anziehende Kraft F1 und die Strichpunkt-Linie für die abstoßende Kraft F2. Die durchgezogene Linie für die Elektro-Gravitation ergibt sich als Summe dieser beiden Kräfte.

Diese Kraft ist im Verhältnis sehr klein. Deshalb ist sie besseren Erkennbarkeit im Diagramm 20-fach überhöht dargestellt. Die Krümmung des Universums nach Einstein wurde bei der Berechnung mit einer Konstante berücksichtigt. Deshalb geht die Kurve für große Entfernungen nicht gegen null, sondern nimmt negative Werte an, die einer Abstoßung entsprechen.

 

Diagramm 2.3:1

 

Der Maßstab des Diagramms ist so gewählt, dass man den Verlauf der Kurven gut erkennen kann. Es gibt keinen Bezug zu realen Kräften oder Abständen. Lediglich das Verhältnis der dargestellten Werte zueinander ergibt sich aus den zur Berechnung verwendeten Gesetzmäßigkeiten. In diesem Diagramm erklärt die Elektro-Gravitation neben der Anziehung zwischen zwei Körpern aufgrund ihrer Masse auch das Verhalten dieser Körper im atomaren Bereich und bei kosmischen Abständen.

Im Diagramm liegt die Gültigkeit des Newtonschen Gravitationsgesetzes etwa zwischen r=1,7 und r=5. Für r<1 zeigt das Diagramm die Abstoßung der Elektronenhüllen bei atomaren Abständen, und für r>5,3 zeigt es die Wirkung der Krümmung des Universums nach der Relativitätstheorie bei einer stetig zunehmenden Ausdehnung des Weltalls. Mit Abständen in atomarer Größenordnung auf der einen Seite und kosmischen Entfernungen auf der anderen, sollte klar sein, dass man bei einer maßstäblichen oder auch logarithmischen Darstellung der Entfernung im Diagramm nichts erkennen könnte. Auch die Kräfte sind nur als relative Größen dargestellt.

 

Wenn wir in der Weltraum schauen, sehen wir verschiedene Objekte, für die das Gravitationsgesetz und die Wirkung der Fliehkraft keine wirklich überzeugende Erklärung liefern. Dazu gehören die Zentralbereiche der Galaxien und Kugelsternhaufen. Die Wirkung der Fliehkraft ermöglicht nur bei scheibenförmigen Systemen wie den Planetenbahnen oder den Spiralarmen einer Galaxie dauerhaft stabile Verhältnisse. Bei kugelförmigen Strukturen würden sich die Umlaufbahnen ständig kreuzen und dabei das System aus dem Gleichgewicht bringen.

Zudem beobachtet man in Kugelsternhaufen kaum irgendwelche Bewegungen der Sterne. Was verhindert also, dass die Sterne darin unter dem Einfluss ihrer Gravitation an einem Punkt zusammen fallen? Wichtig ist dabei auch, dass Kugelsternhaufen zu den ältesten Objekten im Universum zählen. Ohne eine irgendwie geartete Struktur aus dunkler Materie um diese Sternhaufen herum lässt sich nach dem Gravitationsgesetz nicht überzeugend erklären, warum diese Objekte nicht schon lange in sich zusammen gefallen sind.

Betrachten wir aber den Elektronen-Potentialwirbel eines Sterns in Kapitel 2.2.1 Abbildung 2.2.1:2 unter dem Aspekt der Elektro-Gravitation, zeigt sich eine sehr einfache und gleichzeitig plausible Erklärung. Der Elektronenwirbel um einen Stern herum besitzt die gleiche abstoßende Wirkung gegenüber anderen Elektronen wie die Elektronenhülle eines Atoms. Mit dem sehr großen Abstand zum Plasma im Inneren und damit zu der positiven Ladung ergeben sich dabei für die Elektro-Gravitation völlig andere Verhältnisse als bei Atomen.

Der Bereich, in dem die Abstoßung der Elektronen wirksam ist, liegt nicht mehr in einer atomaren Größenordnung, sondern bei dem Vielfachen des Durchmessers eines Sterns. Das gilt zumindest für die Wirkung der Elektro-Gravitation zwischen zwei Sternen, wenn es bei beiden Objekten einen großen Abstand zwischen den Ladungen gibt. Zwischen einem Stern und einem Planeten ist dieser Bereich der Abstoßung deutlich kleiner. Bei unserem Sonnensystem endet er - auf die Sonne bezogen - irgendwo zwischen der Sonne und der Bahn des Merkur. Von Planet zu Planet - wie beispielsweise zwischen Erde und Mond - liegt der Bereich der Abstoßung dann wieder auf beiden Seiten in atomarer Größenordnung.

 

Diagramm 2.3:2 zeigt die mögliche Wirkung der Elektro-Gravitation zwischen zwei Sternen, einem Planeten und einem Stern und zwischen zwei Planeten im Vergleich. Die Kurven errechnen sich jeweils mit den selben Formeln und Gesetzmäßigkeiten wie in Diagramm 2.3:1. Lediglich die Konstanten zur Anpassung an die Verhältnisse bei den Abständen sind jeweils unterschiedlich gewählt.

Dabei gibt es wegen der Erkennbarkeit wieder keinen Bezug zu irgendwelchen realen Abmessungen beim Abstand r und nur relative Werte für die Kräfte F. Auch die Verhältnisse der jeweiligen Kräfte zueinander sind mit dem Wert eins als Bezugsgröße an die Skalierung im Diagramm angepasst.

 

Diagramm 2.3:2

 

 

Wenn nun die Abstände zwischen den Sternen in einem Kugelsternhaufen und im Zentralbereich einer Galaxie zwischen r=2,2 und r=2,6 im Diagramm liegen, sind keine Umkreisungen und keine Wirkung der Fliehkraft für die Stabilität dieser Systeme erforderlich. Die Sterne verhalten sich dann mit der Abstoßung der Elektronen wie die Moleküle in einem Gas. Dabei werden sie immer wieder voneinander abgestoßen und fallen dann wieder aufeinander zu. Wie bei einem Gas nehmen sie dabei einen umso größeren Raum ein, je stärker sie sich bewegen. Das entspricht dem Druck und der Temperatur eines Gases. Man kann also hier von einem 'Sternen-Gas' sprechen.

Beträgt der Abstand im Diagramm genau r=2,2, können die Sterne eine stabile Struktur bilden, ohne sich zu bewegen. Es entsteht etwas, das einer Flüssigkeit entspricht, also ein 'Sternen-Fluid'. Kugelsternhaufen könnte man dann als Ansammlungen von 'Sternen-Gas' ansehen. In ihren Zentralbereichen ist dann dieses 'Sternen-Gas' zu einem 'Sternen-Fluid' verdichtet.

 

So entstehen diese im Weltraum sehr häufigen Strukturen einfach aus einem Gleichgewicht der Kräfte, ohne den Einfluss einer geheimnisvollen dunklen Materie. Voraussetzung dazu ist allerdings, dass alle Sterne aus einem Elektronen-Potentialwirbel bestehen. Dann verhalten sich Sterne im Weltraum bei relativ geringem Abstand genau so wie Atome oder Moleküle in einem Gas oder in einer Flüssigkeit.

Die Parameter für die - im Anhang vorgestellten - Formeln zur Elektro-Gravitation sind nur für den Sonderfall des Newtonschen Gravitationsgesetzes als allgemeine Gravitationskonstante bekannt. Alle anderen Parameter müsste man auf der Grundlage Astronomischer Beobachtungen erst noch bestimmen. Zu diesen Beobachtungen gehören die Abstände und Größen der Sterne in Kugelsternhaufen und in Zentralbereichen der Galaxien, die bereits erwähnten Umlaufgeschwindigkeiten in den Spiralarmen der Andromeda-Galaxie und die Größen der Sterne, Abstände und Umlaufzeiten bei Mehrfach-Sternsystemen. Die Parameter müssten also aus einer Fülle von gemessenen Daten heraus gerechnet werden. Für eine gute Genauigkeit wären damit mehrere Wissenschaftler wahrscheinlich einige Jahre beschäftigt.

Deshalb beschränke ich mich hier auf eine einfache anschauliche Betrachtung der Umlaufbahnen in Doppel- und Mehrfachsternsystemen ohne irgendwelche Berechnungen mit gemessenen Daten. Dabei hilft wieder das Analogiemodell mit der Raumkrümmung nach der Relativitätstheorie die Zusammenhänge zu verstehen.

 

In Diagramm 2.3:2 liegt der dabei betrachtete Abstand zwischen r=2,2 und r=4,7, also im Bereich von einem 'Sternen-Gas' bis zum Ende der Gültigkeit des Newtonschen Gravitationsgesetzes. Auf die anderen Bereiche und Abstände mit den Kurven für die Kräfte zwischen Planet und Stern und zwischen zwei Planeten wird in den beiden nachfolgenden Kapiteln 2.3.1 und 2.3.2 ausführlich eingegangen.

Dabei ergeben sich in allen Bereichen der Astronomie mit der Elektro-Gravitation sehr plausible Erklärungen für die jeweiligen Beobachtungen. Den Beschreibungen nach dem Prinzip der Elektro-Gravitation werden dann jeweils - soweit überhaupt verfügbar - auch die allgemein anerkannten Erklärungen gegenüber gestellt.

 

Abbildung 2.3:1

 

 

Nach der Relativitätstheorie stellt man sich, wie bereits erwähnt, die Wirkung der Gravitation als gekrümmte Fläche vor, auf der die Himmelskörper wie Kugeln entlang rollen, wenn sie ein Zentralgestirn umkreisen. Die gekrümmte Fläche steht dabei für die Krümmung der Raumes in einer vierten Dimension nach Einstein. In Abbildung 2.3:1 ist das auf der linken Seite dargestellt. Rechts ist gezeigt, wie man sich diese Raumkrümmung bei der Elektro-Gravitation vorstellen kann. Oben ist jeweils der Raum als Schnitt durch eine gekrümmte Fläche dargestellt, auf der die Kugeln unter dem Einfluss der Gravitation entlang rollen. Darunter ist die Bahn der Kugeln aus einem Blickwinkel schräg von oben zu sehen.

Diagramm 2.3:3 zeigt, wie sich die Krümmung K darstellt, wenn man sie aus der Elektro-Gravitation Fg berechnet. Die obere Kurve zeigt die Gravitationskraft Fg, die untere die Krümmung K, auf der eine Kugel rollen würde. Mathematisch betrachtet ist die Kraft Fg die erste Ableitung der Krümmung K. So entsprechen die beiden Nulldurchgänge der Kraft Fg bei r=1 und r=4,5 dem höchsten und tiefsten Punkt - Maximum und Minimum - der Krümmung K. Innerhalb von r1 - was r<1 im Diagramm entspricht - liegt der Bereich der Abstoßung. Im tiefsten Punkt bei r1 oder r=1 im Diagramm würde eine Kugel bewegungslos liegen bleiben.

 

Das Entspricht der Situation in einem Kugelsternhaufen oder im Zentralbereich einer Spiralgalaxie bei einem 'Sternen-Fluid'. Der Wendepunkt r2 entspricht im Diagramm dem Abstand mit der maximalen Anziehungskraft bei r=1,5. Bei einer Umrundung muss sich die rollende Kugel immer außerhalb von r1 befinden, damit es ein Gleichgewicht mit der Fliehkraft geben kann. Bei einer zu geringen Geschwindigkeit der Kugel entsteht zwischen r1 und r2 aus abwechselnder Anziehung und Abstoßung ein 'Sternen-Gas'. Ganz außen für r>4,5 entfernt sich die Kugel vom Massenzentrum - sie rollt auf der Kurve der Krümmung K nach unten. Es kommt dann zu keiner Umkreisung.

 

Diagramm 2.3:3

 

Bei einer Umkreisung ergeben sich unterschiedliche Umlaufbahnen, je nachdem, ob die Kugel zwischen r1 und r2 verbleibt, den Bereich zwischen r1 und r2 verlässt oder immer außerhalb von r2 um das Zentralgestirn kreist. Abbildung 2.3:2 zeigt diese Umlaufbahnen in der Draufsicht. Nach den ersten Keplerschen Gesetz sind Umlaufbahnen immer Ellipsen. Links in der Abbildung 2.3:2, bei einer Umkreisung im Bereich der ansteigenden Kraft zwischen r1 und r2, befindet sich das Zentralgestirn auf eine der beiden kurzen Halbachsen einer relativ breiten Ellipse. Verlässt die Umlaufbahn den Bereich zwischen r1 und r2, wie in der Mitte gezeigt, wird die Ellipse näherungsweise zum Kreis, und das Zentralgestirn liegt zwischen Mittelpunkt und Kreisbahn.

Liegt die Umlaufbahn vollständig außerhalb von r2, wie rechts gezeigt, befindet sich das Zentralgestirn in einem der beiden Brennpunkte einer schlanken Ellipse, wie es die Keplerschen Gesetze beschreiben. Das Entspricht der Situation, die wir bei den Umlaufbahnen der Kometen um die Sonne gut beobachten können. Die Planetenbahnen sind Ellipsen der gleichen Art, nur sie sind fast Kreisbahnen, und das Zentralgestirn befindet sich dicht am Zentrum des Kreises. Wenn wir die anderen beiden Situationen sehen wollen, müssen wir weit in den Weltraum hinaus schauen und Doppelsterne beobachten.

 

Abbildung 2.3:2

 

Zu den bekanntesten Doppelsternen wie Kastor (α Geminorum) im Sternbild Zwillinge, γ Virginis im Sternbild Jungfrau oder ε Lyrae im Sternbild Leier gibt es in astronomischen Büchern Zeichnungen der Umlaufbahnen. Diese bestätigen recht gut alle drei in Abbildung 2.3:2 gezeigten Varianten. Bei diesen mit astronomischen Beobachtungen gemessenen Bahnen muss man jedoch beachten, dass man mit einem Fernrohr nicht immer senkrecht auf die Bahn schaut. Man sieht nur die Projektion der Bahn auf die Blickrichtung, was ein stark verzerrtes Bild ergeben kann. Trotz Verzerrung sollte sich das Zentralgestirn aber immer auf einer der Halbachsen befinden, was bei den genannten Beispielen recht gut zutrifft.

Es kann sich bei Doppelsternen aber auch um nicht direkt erkennbare Mehrfachsysteme handeln. Kleine weiße Zwerge, Neutronensterne oder sehr große Planeten können einen Einfluss auf die Umlaufbahn haben, obwohl sie auch mit einem starken Fernrohr nicht zu sehen sind. Ein bekanntes Mehrfachsystem mit drei Sternen ist Sirius (α Canis majoris) im Sternbild großer Hund. Bei der Umlaufbahn des einen Begleiters befindet sich das Zentralgestirn irgendwo zwischen den in Abbildung 2.3:2 gezeigten Positionen neben den Halbachsen in der Nähe des einen Brennpunktes. Dieser erste Begleiter ist ein weißer Zwerg, also ein kleiner massereicher Stern, der hell leuchtet. Man kann ihn bereits mit größeren Amateur-Fernrohren erkennen. Die Ursache für die Abweichung der Position des Zentralgestirns von den Halbachsen ist ein zweiter Begleiter, ein massereicher Neutronenstern mit geringer Größe und Leuchtkraft.

 

Eine einfache Betrachtung der Umlaufbahnen kann man natürlich nicht als Beweis für die Elektro-Gravitation anführen. Dazu müsste man die zu den genannten Sternen durchgeführten Messungen mit den Formeln der Elektro-Gravitation nachrechnen. Da aber nur diese Formeln und nicht die für sie benötigten Parameter bekannt sind, ist das ohne eine intensive Forschung, wie die Auswertung der Messungen in der Andromeda-Galaxie und anderer Beobachtungen, nicht möglich. Die gute Übereinstimmung mit den in Abbildung 2.3:2 gezeigten Umlaufbahnen spricht aber eher für die Elektro-Gravitation als dagegen.

2.3.1 Sterne, Planeten und Galaxien

In diesem und dem nächsten Kapitel geht es darum, wie sich die vielen astronomischen Beobachtungen von den Planetenbahnen über Sterne und Galaxien bis hin zu Neutronensternen und schwarzen Löchern mit der Elektro-Gravitation erklären lassen. Die dabei jeweils wirksame Elektro-Gravitationskraft F entnehmen wir dabei Diagramm 2.3:2 in Kapitel 2.3. Beginnen wir also mit den Planetenbahnen.

Wie in Kapitel 2.2 bereits beschrieben, entstehen diese Bahnen durch eine wellenförmige Zuströmung der Materie zu einem Stern. Diese Wellen bestehen abwechselnd aus Ansammlungen von Gas und Staub mit einem leeren Raum dazwischen. Bei einem Wasserwirbel gibt es eine Grenze zur Luft, die Wellen auf dem Wasser entstehen lässt. Dieser Grenze entspricht bei der zuströmenden Materie ein minimaler Druck, bei dem die Moleküle im Gas oder Staub noch zusammen gehalten werden.

 

Mit der Elektro-Gravitation haben wir nun eine Erklärung für diesen minimalen Druck als Grenzwert. Es kann sich immer nur dann Druck aufbauen, wenn eine anziehende Kraft zwischen den beteiligten Objekten wirksam ist. Hier sind diese Objekte Gasmoleküle und Staubpartikel. In Diagramm 2.3:2 gilt für die anziehende Kraft F zwischen Objekten ohne Elektronen-Potentialwirbel die Kurve 'Planet-Planet'. Der Bereich mit anziehender Kraft liegt hier zwischen r=0,1 und r=0,9. Bei kleinerem Abstand ist die gegenseitige Abstoßung der Elektronenhüllen wirksam und bei größerem die Raumkrümmung nach der Relativitätstheorie.

In Diagramm 2.3:2 liegt r=0,9 in der Nähe der Abstoßung zwischen Stern und Planet, was gut mit den Abständen zwischen den Planetenbahnen zusammen passt. Es kann also so lange im Vakuum des Weltalls ein Gas entstehen, wie die anziehende Wirkung der Gravitation größer ist als die abstoßende Wirkung der Raumkrümmung. Damit erklärt die Elektro-Gravitation das Entstehen von Wellen bei einer Zuströmung von Materie zu einem Massenzentrum.

 

Bei unserer Sonne beobachten wir, dass ständig Materie von ihr abgestoßen wird. Neben einer ständigen Strahlung aus radioaktiven Teilchen wird immer wieder eine große Menge Materie in Form von Protuberanzen in den Weltraum hinaus gestoßen. Diese Erscheinungen werden als Sonnenwind bezeichnet. Bei großen Protuberanzen spricht man dann auch von einem Sonnensturm. Man hat jedoch noch nie beobachtet wie irgend etwas in die Sonne hinein stürzt.

Nach der Elektro-Gravitation müsste ein Objekt, das der Sonne sehr nahe kommt, die Abstoßung der Elektronen des Potentialwirbels überwinden, um in die Sonne hinein zu stürzen. Das wäre nur möglich, wenn es sich mit sehr hoher Geschwindigkeit direkt auf die Sonne zu bewegen würde. Ein langsameres Objekt kann dagegen nur bis an den Bereich der Abstoßung bei r<0,8 im Diagramm heran kommen. Dann verglüht es, und seine Bestandteile werden mit der Strahlung oder dem Sonnenwind in das Weltall hinaus gestoßen.

 

Je dichter sich ein Planet an der Sonne befindet, desto mehr Masse benötigt er, um Gas als Atmosphäre an seiner Oberfläche fest halten zu können. Gemäß der anerkannten Theorie wird das mit dem Strahlungsdruck erklärt, der aus der in den abgestrahlten Teilchen enthaltenen kinetischen Energie resultiert.

Gemäß der Elektro-Gravitation ergibt sich die in den Teilchen enthaltene kinetische Energie oder die Temperatur dieser Teilchen aus der Abstoßung von den Elektronen des Potentialwirbels. Die abgestrahlten Teilchen entsprechen dabei einem heißen Gas mit sehr geringer Dichte und hohem Druck, das einen weiten Bereich um die Sonne herum ausfüllt. Die Höhe des Druckes folgt dabei im Diagramm der Kurve für die Kraft F zwischen Sternen und Planeten. Je stärker die Teilchen dabei von der Gravitation der Sonne angezogen werden, desto höher ist der Strahlungsdruck.

 

Die Verhältnisse beim Strahlungsdruck sind nicht mit dem Druck in einer Gas- und Staubwolke zu vergleichen, deren Temperatur nur knapp über dem absoluten Nullpunkt (-273 °C) liegt. Hier ergibt sich der Druck vor allem aus der Anziehung der Gasmoleküle und Staubpartikel untereinander und nicht aus der Anziehungskraft der Sonne.

Deshalb ist in Diagramm 2.3:2 die Kurve 'Planet-Planet' und nicht die Kurve 'Stern-Planet' maßgebend. Bei der Entstehung der Planeten wirkte der Strahlungsdruck mit den schnellen Teilchen, der einer hohen Temperatur entspricht, nur vom Elektronenwirbel der Sonne bis zu der zuströmenden Gaswolke und bremste diese ab. Erst nach den Entstehen der Planeten konnten sich diese schnellen, heißen oder energiereichen Teilchen in den nun leeren Raum bis weit in die Planetenbahnen hinein ausbreiten. Dabei wurden alle verbliebenen Reste der Gaswolke weit von der Sonne weg gedrängt.

 

Alle Planetenbahnen liegen gemäß der Keplerschen Gesetze im Bereich der Gültigkeit des Newtonschen Gravitationsgesetzes, also in Diagramm 2.3:2 zwischen etwa r=1,1 und r=2,3. Ein weiterer Stern könnte nach dem Diagramm nicht dichter als in den Bereich der äußersten möglichen Planetenbahnen bei ungefähr r=2,2 an die Sonne heran kommen. Das entspricht dann dem Abstand in einem 'Sternen-Fluid' mit einer nur sehr geringen Bewegung der Sterne. Eine Umkreisung, wie in Kapitel 2.3 für Doppelsterne und Mehrfachsysteme beschrieben, ist erst ab etwa dem Wendepunkt bei r=2,6 möglich. Damit müsste sich ein weiterer Stern eines Mehrfachsystems weit außerhalb der möglichen Planetenbahnen befinden. Dabei ergeben sich bei der Masse der Sonne Umlaufzeiten von vielen hundert Jahren. Bei Sternen mit größerer Masse sind die Umlaufzeiten kürzer.

 

Wenn dieser zweite Stern jedoch ein Neutronenstern oder weißer Zwerg ist, ergeben sich völlig andere Verhältnisse. Aufgrund der sehr großen Dichte eines solchen Sterns gilt nun im Diagramm nicht die Kurve 'Stern-Stern', sondern für weiße Zwerge und weniger dichte Neutronensterne gelten je nach Dichte Abstände, die zwischen den Kurven 'Stern-Stern' und 'Stern-Planet' liegen. Für einen sehr dichten Neutronenstern kann auch ein Abstand irgendwo zwischen den Kurven 'Stern-Planet' und 'Planet-Planet' gültig sein.

Mit zunehmender Dichte überwiegt dabei die anziehende Wirkung zwischen Elektronen und Neutronen gegenüber der Abstoßung der Elektronen in den Potentialwirbeln immer mehr. Damit werden mit einer Beteiligung von Neutronensternen und weißen Zwergen sich sehr eng umkreisende Mehrfachsysteme wie das bereits erwähnte Dreifach-System des Sirius möglich.

 

Mit etwa 50 Jahren Umlaufzeit des größeren Sirius-Begleiters und der 1,8-fachen Masse des Sirius gegenüber des Sonne liegt der Abstand eindeutig in der Größenordnung der Planetenbahnen. Im Extremfall kann der Abstand zwischen zwei Sternen kleiner werden als der Abstand des Merkur zur Sonne.

Solche Systeme kennt man als bedeckungsveränderliche Sterne, da man die Objekte in einem Fernrohr nicht einzeln auflösen kann. Man erkennt lediglich einen regelmäßigen Wechsel in der Helligkeit, der sich innerhalb weniger Tage wiederholt. Typische Vertreter solcher Sterne sind b Lyrae im Sternbild Leier und e Aurigae im Sternbild Fuhrmann.

 

Im kugelförmigen Zentralbereich einer Spiralgalaxie liegen, wie bereits erwähnt, die Abstände zwischen den Sternen im Bereich eines 'Sternen-Fluids' bis zu einem dichten 'Sternen-Gas' - im Diagramm etwa zwischen r=2,2 und r= 2,7. In den Spiralarmen liegen die Abstände in etwa zwischen r=2,7 und r=3. In diesem Bereich nimmt die Anziehung ungefähr im gleichen Verhältnis zu wie der Abstand, was bei einem Gleichgewicht mit der Fliehkraft etwa gleich große Umlaufgeschwindigkeiten ergibt.

Der Bereich der Anziehung, in dem das Newtonsche Gravitationsgesetz gültig ist, - etwa bis r=4,7 in Diagramm 2.3:2 - reicht sehr weit von einer Galaxie in den Weltraum hinaus. Die Andromeda-Galaxie und unsere Galaxie ziehen sich über eine riesige Entfernung von 2,3 Millionen Lichtjahren hinweg an und bewegen sich aufeinander zu. Der Punkt, ab dem die Krümmung des Universums gemäß der Relativitätstheorie zwischen zwei Sternen zu einer Abstoßung führt - im Diagramm bei etwa r=4,7 - muss entsprechend erheblich weiter als 2,3 Millionen Lichtjahre von einer Galaxie entfernt sein.

 

Wie es der Blick mit einem starken Fernrohr in weit entfernte Teile des Weltalls zeigt, sind Galaxien meistens in großen Ansammlungen, den Galaxien-Haufen, anzutreffen. Folglich müssen die Abstände innerhalb dieser Haufen im Bereich der Anziehung liegen. Der Abstand zwischen den Galaxien-Haufen liegt dann im Bereich der Abstoßung aufgrund der Krümmung des Universums. So kann sich das Universum insgesamt ausdehnen, während sich die Galaxien und die Sterne darin auf einen immer kleiner werdenden Raum konzentrieren. Auch unsere Galaxie gehört zu einem Galaxien-Haufen, zu dem auch die Andromeda-Galaxie und viele weitere Galaxien gehören.

Da sich unsere Galaxie und die Andromeda-Galaxie - für kosmischen Verhältnisse - relativ schnell aufeinander zu bewegen, werden sie in etwa vier Milliarden Jahren zusammen treffen und zu einem einzigen Objekt verschmelzen. Man findet an mehreren Stellen im Universum zwei Spiralgalaxien, die gerade zusammen getroffen sind. Daher weiß man, dass sich dabei die Spiralstrukturen nach und nach auflösen.

Dabei werden gewaltige Gas- und Staubwolken freigesetzt, aus denen dann neue Sterne entstehen. Am Ende verbleibt eine so genannte elliptische Galaxie, die man sich wie einen sehr großen auseinander gezogenen Kugelsternhaufen mit zwei nebeneinander liegenden Zentralbereichen vorstellen kann. Was dann im Laufe von weiteren Millionen oder Milliarden Jahren mit diesen beiden Zentralbereichen und den beiden schwarzen Löchern darin geschehen wird, ist ein Thema des nachfolgenden Kapitels.

 

Mit der Elektro-Gravitation zeigt sich für Planeten und Sterne ein unterschiedlicher Verlauf der Kräfte zwischen ihnen. Bei Objekten ohne Elektronen-Potentialwirbel, also bei Planeten und Planetoiden, aber auch bei Gas und Staub, wird dabei der abstoßende Bereich aufgrund der Krümmung des Universums um Größenordnungen früher erreicht als bei Sternen. Das hat auf den Aufbau des Universums einen entscheidenden Einfluss.

Bevor es also im nächsten Kapitel um das Verhalten von Neutronensternen und schwarzen Löchern unter dem Einfluss der Elektro-Gravitation geht, betrachten wir zunächst diesen Einfluss auf das Entstehen der wellenförmigen Struktur bei den Spiralarmen einer Galaxie.

Wie das Entstehen von Planetensystemen ist auch das Entstehen von Galaxien ein aktuelles Thema der Forschung in der Astronomie. Mit immer stärkeren Teleskopen, wie den Hubble-Weltraumteleskop und dem VLT in der Atakama-Wüste erhalten wir immer neue Einblicke, die dann erst einmal ausgewertet werden müssen. Dazu kommen noch Beobachtungen mit immer leistungsfähigeren Radio-Teleskopen, sodass uns Informationen aus dem gesamten Spektrum der elektromagnetischen Wellen zur Verfügung stehen.

 

Damit ergeben sich ein Fülle von Daten, wie es sie noch nie zuvor in der Astronomie gegeben hat. Also gibt es zum Entstehen von Planetensystemen und Galaxien viele Ideen für mögliche Theorien, aber nur wenige Erkenntnisse, die als gesichert gelten.

Bei den Planetensystemen kann man bereits als gesichert ansehen, dass Gas und Staub in einer Scheibe einen neu entstandenen Stern zuströmt. Wie sich das unter den Blickwinkel des Wirbelprinzips erklären lässt, habe ich in Kapitel 2.2 bereits weitgehend beschrieben. Zum Entstehen der Planeten in einer solchen Scheibe gibt es bereits einige Beobachtungen, aber noch keine irgendwie schlüssige Theorie.

 

Nach dem Wirbelprinzip gibt es, wie bereits beschrieben, für die Entstehung eines hohlen Planeten mit Zentralstern grundsätzlich keinen Unterschied zu der Entstehung eines Sterns. Es gibt jedoch noch keine Beobachtungen, die das bestätigen oder verwerfen könnten. Sterne, deren Planeten gerade entstehen, sind so weit von uns entfernt, dass auch die stärksten Teleskope, sowohl im optischen Bereich aus auch bei Radiowellen, nur einen recht groben Eindruck vermitteln.

Neu entstehende Galaxien sind zwar sehr groß, dafür kann man sie nur in Entfernungen von mehreren Milliarden Lichtjahren nicht weit vom Urknall entfernt beobachten. Da kann auch das stärkste Teleskop wieder nur einen recht groben Überblick über die jeweiligen Vorgänge liefern. Auch das gilt wieder für das gesamte Spektrum der elektromagnetischen Wellen, von Gammastrahlen über das sichtbare Licht bis hin zu Radiowellen. Also bleibt an dieser Stelle wieder nichts anderes übrig, als aus dem Wirbelprinzip, dem Prinzip der Resonanz und der Elektro-Gravitation Schlüsse zu ziehen.

 

Bei Planetensystemen strömen Gas und Staub einem neu entstandenen Stern zu. Wie sieht es aber beim Entstehen einer Galaxie aus? Gibt es nur Gas- und Staubwolken oder gibt es bereits Sterne, wenn die Wellenstruktur der Spiralarme entsteht? Für die Wirkung der Elektro-Gravitation ist es entscheidend, das zu wissen.

Bei Planetensystemen liegen alle Planetenbahnen im Bereich der Gültigkeit des Newtonschen Gravitationsgesetzes, also in Diagramm 2.3:2 zwischen r=1,2 und r=2,3, wobei die Kurve 'Stern-Planet' gültig ist. Für Staub und Gas gilt die Kurve 'Planet-Planet'. Also ist für Staub und Gas bereits die Abstoßung aufgrund der Krümmung des Universums wirksam. Damit ergibt sich die beschriebene Grenze zwischen Gas und leerem Raum oder Vakuum dazwischen, die eine wellenförmige Struktur entstehen lässt.

 

Bei einer Galaxie kann ein 'Sternen-Gas' erst sehr weit außerhalb der Spiralarme mit dem beschriebenen Grenzwert eine wellenförmige Struktur entstehen lassen. Das ist weit außerhalb der 2,3 Millionen Lichtjahre zur Andromeda-Galaxie und liegt im Diagramm bei r>4,7 für die Kurve 'Stern-Stern'. Für Staub und Gas mit der maßgebenden Kurve 'Planet-Planet' sind wiederum die Entfernungen in den Spiralarmen zu groß. Dafür passt die Kurve 'Stern-Planet' mit einer Abstoßung aufgrund der Raumkrümmung ab etwa r=2,4 ähnlich gut zu der Situation, wie die Kurve 'Planet-Planet' zu den Planetenbahnen.

Offensichtlich ist eine Wechselwirkung neu entstehender Sterne mit den sie umgebenden Staub- und Gaswolken für das Entstehen der Wellenstruktur in den Spiralarmen verantwortlich. Neuere Bilder von Radioteleskopen, die mit Wellenlängen im Bereich von Millimetern arbeiten, zeigen entstehende Sterne im Inneren von riesigen kosmischen Gas- und Staubwolken.

 

Das entspricht genau der Situation, die nach der Elektro-Gravitation in den Spiralarmen einer Galaxie zum Entstehen einer Wellenstruktur führen sollte. Die genannten Bilder von neu entstehenden Sternen in einer Gaswolke stammen jedoch aus dem Orion-Nebel, der sich mit etwa 1600 Lichtjahren Entfernung noch innerhalb unserer Galaxie befindet. Sie liefern also keine Informationen darüber, welche Vorgänge beim Entstehen einer Galaxie tatsächlich ablaufen.

Bei der vorstehenden Betrachtung ist zudem zu bedenken, dass die Parameter in den Formeln zur Elektro-Gravitation so gewählt sind, dass sich die beschriebenen Situationen ergeben. Das gilt aber nur für die jeweilige Größe der berechneten Werte und nicht für den grundsätzlichen Verlauf der drei im Diagramm gezeigten Kurven.

Der ergibt sich aus dem Coulombschen Gesetz und aus der Krümmung der 'Raumzeit' nach der Relativitätstheorie. Die Lage der Kurven im Diagramm ist dann das Ergebnis vieler bekannter astronomischer Beobachtungen, auf die hier im Detail nicht eingegangen werden soll. Dabei sind vor allem die Abstände zwischen Planeten, Sternen und Galaxien von großer Bedeutung. Die Kurven sind also nicht speziell an die hier zur Wellenstruktur beschriebenen Verhältnisse angepasst.

 

Auch die im nächsten Kapitel angesprochenen Auswirkungen der Elektro-Gravitation auf Neutronensterne und schwarze Löcher haben einen Einfluss auf den Aufbau der Galaxien und ihre Spiralstruktur. Darauf wird dann bei den jeweiligen Themen noch einmal eingegangen. Zum Thema Planeten, Sterne und Galaxien sind mit dem vorstehenden die wichtigsten Zusammenhänge mit der Elektro-Gravitation aufgezeigt.

2.3.2 Neutronensterne und schwarze Löcher

Zwischen den Spiralarmen einer Galaxie gibt es große dunkel erscheinende Gebiete, die mit Gas und kosmischem Staub ausgefüllt sind. Am besten erkennt man das auf den bekannten Abbildungen des Sombrero-Nebels (Katalog-Bezeichnung M 104, Abbildung 2.3.2:1) am Südrand des Sternbildes Jungfrau, bei dem wir genau auf die Kante der Scheibe mit den Spiralarmen blicken. Dabei zieht sich ein undurchsichtiges schwarzes Band durch diese Scheibe hindurch.

 

Abbildung 2.3.2:1; Sombrero-Galaxie (M 104, NGC 4594)

 

 

Bei der Suche nach der dunklen Materie hat man zwischen den Spiralarmen der Galaxien auch zusammen hängende Systeme von Gravitationslinsen entdeckt, die sich bis weit außerhalb der Galaxie hinaus erstrecken. Daraus schließt man, dass ein Netz aus dunkler Materie alle Galaxien umgibt. Diese dunklen Bereiche aus Staub und Gas verdecken bei unserer Galaxie den Blick in den Zentralbereich. In der Milchstraße, also in dem Spiralarm, in dem sich unsere Sonne befindet, gibt es einen großen dunklen Bereich, der Kohlensack genannt wird. Genau hinter diesem dunklen Gebiet verbirgt sich der Zentralbereich unserer Galaxie.

Wenn wir verstehen wollen, wie diese Struktur einer Galaxie unter den Blickwinkel der Elektro-Gravitation entstehen kann, müssen wir uns noch einmal mit den Ablauf einer Supernova-Explosion beschäftigen, wie sie in Kapitel 2.2.3 beschrieben ist. Dabei betrachten wir wieder Diagramm 2.3:2 in Kapitel 2.3 zur Elektro-Gravitation.

 

Bei einer Supernova-Explosion verbleibt im Zentrum ein Neutronenstern oder ein schwarzes Loch aus einem relativ kleinen Teil der Masse des Sterns. Der Rest seiner Materie wird als Gas und Staub weit in den Weltraum hinaus geschleudert. Wenn sich die Supernova-Explosion im Zentralbereich einer Galaxie ereignet, liegt der Abstand der Sterne im Diagramm im Bereich eines 'Sternen-Gases' bei etwa r=2,3 bis r=2,6. Dabei gilt Kurve 'Stern-Stern'. Für das Innere einer Gas- und Staubwolke gilt die Kurve 'Planet-Planet', bei der bereits bei r=0,9 der Bereich der Abstoßung aufgrund der Krümmung des Universums beginnt.

Um die Sterne in der Umgebung der Supernova gibt es zunächst nur leeren Raum und Planeten, die die Sterne umkreisen. Gas und Staub aus der Explosion werden also zunächst von den Sternen angezogen, dann aber heftig vom Elektronenwirbel wieder abgestoßen. So entsteht um die Sterne herum ein Sonnenwind, also ein Gas mit sehr geringer Dichte und hoher Temperatur, der die bei der Supernova entstandene Gas- und Staubwolke aus dem Zentralbereich der Galaxie hinaus drängt.

 

Wenn nun für die Kraft F der Elektro-Gravitation, die auf den Neutronenstern wirkt, ein Wert zwischen den Kurven 'Stern-Planet' und 'Planet-Planet' gültig ist, liegt der Abstand zu den umgebenden Sternen mit r=2,3 bis r=2,6 bereits im Bereich der Abstoßung aufgrund der Krümmung des Universums. Hinzu kommt, dass die Masse des Neutronensterns erheblich kleiner ist, als die der umgebenden Sterne.

Damit sollte der Bereich der Abstoßung ebenfalls bei einem geringeren Abstand erreicht werden. Also wird auch der Neutronenstern aus dem Zentralbereich der Galaxie heraus gedrängt. Schwarze Löcher entstehen, wenn Neutronensterne unter dem Druck ihrer Masse in sich zusammen fallen. Die Wirkung ihrer Gravitation bleibt dabei unverändert erhalten. Also kann man davon ausgehen, dass auch der Abstand, ab dem die Krümmung des Universums wirksam wird, in etwa gleich groß ist wie bei einem Neutronenstern gleicher Masse. Damit werden schwarze Löcher ebenfalls aus dem Zentralbereich einer Galaxie hinaus gedrängt.

 

Wenn die Gas- und Staubwolke und der Neutronenstern oder das schwarze Loch von den Sternen im Zentralbereich der Galaxie abgestoßen werden, gilt das auch für die Sterne in den Spiralarmen. Also wird alles, was bei einer Supernova-Explosion entsteht, zunächst aus dem Zentralbereich hinaus gedrängt. Dabei wird es von der Drehung der Sterne um das Zentrum immer mehr mit genommen.

Mit der Wirkung der Fliehkraft und der Abstoßung von den Sternen in den Spiralarmen gelangt es dann nach und nach zwischen die Spiralarme. Auf Gas und Staub wirkt dabei der Strahlungsdruck, der mit dem Abstand von den Sternen kleiner wird. Daher sammeln sich Gas und Staub zwischen den Spiralarmen an, wie man es besonders gut beim Sombrero-Nebel (M 104), aber auch bei unserer Milchstraße, beobachten kann.

 

Bei den Neutronensternen und schwarzen Löchern ist kein mit dem Abstand kleiner werdender Strahlungsdruck, sondern die Abstoßung aufgrund der Krümmung des Universums wirksam. Diese nimmt mit zunehmendem Abstand immer mehr zu. Damit gelangen Neutronensterne und schwarze Löcher immer weiter aus den Galaxien hinaus. Unter dem Einfluss der Fliehkraft bewegen sie sich dabei an den Spiralarmen entlang immer weiter nach außen, bis sie die Galaxie schließlich bis weit in den Weltraum hinaus umgeben.

Sie besitzen eine starke Gravitation und geben nur sehr wenig oder überhaupt kein Licht ab. Also besitzen sie genau die Eigenschaften die man bei dunkler Materie erwartet. Damit bilden sie das Netz aus dunkler Materie um die Galaxien herum, das man glaubt, entdeckt zu haben. Bei einer weit entfernten Galaxie gelingt es auch mit einem Weltraum-Teleskop nicht, die sehr kleinen Gravitationslinsen einzelner Neutronensterne und schwarzer Löcher aufzulösen. Man erkennt dann lediglich die Wirkung einer Gravitationslinse um die Galaxie herum, die man als Wirkung der dunklen Materie ansieht.

 

Weiße Zwerge, die sich im Zentralbereich einer Galaxie befinden, fallen, wie bereits beschrieben, nach und nach zu Neutronensternen zusammen. Damit gelangen schließlich auch sie immer weiter nach außen zu den anderen Neutronensternen und den schwarzen Löchern. In den Spiralarmen gibt es erheblich mehr Bewegung bei den Sternen als im Zentralbereich.

Also werden weiße Zwerge und Neutronensterne häufiger von Sternen eingefangen und bilden, wie bereits beschrieben, mit ihnen dann Mehrfachsysteme. In den Zentralbereichen gibt es immer wieder Supernovae. Dann gelangen Gas, Staub, Neutronensterne und schwarzen Löcher nach außen. Aus dem Gas und Staub entstehen dann neue Sterne, wie man es beim Orion-Nebel beobachtet.

Gleichzeitig bewegen sich Sterne aus den Spiralarmen zum Zentrum hin. Das ergibt einen sehr langsamen aber stetigen Kreislauf der Erneuerung. Dabei füllt sich der Leere Raum zwischen den Spiralarmen immer mehr mit neuen Sternen. Aus den Spiralen wird dann nach und nach eine Scheibe, die sich schließlich, wenn die kinetische Energie der Drehung durch die zwischen den Sternen wirkenden Kräfte langsam aufgebracht wird, in eine Kugel verwandelt. So wird aus einer Spiralgalaxie mit der Zeit ein Kugelsternhaufen.

 

Wenn also das vorstehende richtig ist, sind Kugelsternhaufen sehr alte ehemalige Spiralgalaxien, deren Bewegungsenergie weitestgehend aufgebracht ist. Da man sehr viele relativ kleine Kugelsternhaufen kennt, ist zu vermuten, dass der beschriebene Prozess der Erneuerung umso schneller abläuft, je kleiner eine Galaxie ist.

Eine große Galaxie fängt dann mit ihrer starken Gravitation diese kleinen Kugelsternhaufen ein, sodass sie dann in der Nähe der Spiralarme zu finden sind. Das ist dann ähnlich wie bei der Annäherung der Andromeda-Galaxie an unsere, nur dass dabei die eingefangene Galaxie sehr klein und auch sehr alt ist.

Auch ein Kugelsternhaufen bildet mit den ihn umgebenden Sternen ein 'Sternen-Gas'. Mit der starken abstoßenden Wirkung der vielen in ihm enthaltenen Sterne lagert er sich so im Randbereich der Spiralarme an eine Galaxie an.

Die abstoßende Wirkung aufgrund der Krümmung der 'Raumzeit' nach der Relativitätstheorie und die gegenseitige Abstoßung der gleichen Ladungen bei den Elektronen verhindern bei der Elektro-Gravitation, dass das Universum unter der Gravitationskraft seiner Masse in sich zusammen fällt. Dabei ist keine dunkle Materie mit einem Vielfachen der Masse der Sterne notwendig, die der Gravitation entgegen wirkt.

 

Mit der Aufteilung der Materie bei einer Supernova, der gegenseitigen Abstoßung der Sterne in einem 'Sternen-Gas' und Abstoßung aufgrund der Krümmung des Universums bei großen Entfernungen ergibt sich dabei immer wieder ein Gleichgewicht der Kräfte. So zieht ein schwarzes Loch zwar immer noch mit einer großen Kraft alles in sich hinein, der Raum, in dem seine gewaltige Gravitation wirkt, ist aber recht eng begrenzt. Außerhalb dieses Raumes bewegen sich schwarze Löcher wie auch Neutronensterne voneinander weg und ermöglichen damit die Ausdehnung des Universums.

Neuere Beobachtungen mit Radioteleskopen bei einer Wellenlänge in der Größenordnung von Millimetern haben die Vermutung bestätigt, dass sich im Zentrum unserer Galaxie ein gewaltiges schwarzes Loch befindet. Messungen mit dieser Wellenlänge, die in der Lage ist, die Gas- und Staubwolke zu durchdringen, die uns den Blick zum Zentrum unserer Galaxie versperrt, sind erst mit einem Zusammenschluss vieler Radioteleskope in der Atakama-Wüste möglich. Nur am Standort dieser Teleskope in etwa fünftausend Metern Höhe ist die Luft so trocken, dass Radiowellen im Millimeter-Bereich die Atmosphäre durchdringen können.

 

Nach dem zuvor mit der Elektro-Gravitation Beschriebenen bewegen sich Neutronensterne und schwarze Löcher aus den Galaxien hinaus. Wie soll das nun mit einem massiven schwarzen Loch im Zentrum unserer Galaxie zusammen passen? Dazu gibt es mit der Elektro-Gravitation nur eine plausible Erklärung: Die gesamte Galaxie muss aus den Überresten einer gewaltigen Supernova-Explosion entstanden sein.

Dann hat es am Anfang eine riesige Gas- und Staubwolke mit einem sehr massiven schwarzen Loch in seinem Zentrum gegeben. Diese Wolke verdichtete sich dann, wobei neue Sterne entstanden. Die Sterne bewegten sich dann von allen Seiten wieder auf das schwarze Loch in ihrem Zentrum zu, wobei sich innen ein Zentralbereich aus dichtem 'Sternen-Gas' und außen Spiralarme bildeten.

Die gegenseitige Anziehung wirkte dabei zunächst einmal nur die Sterne selbst und nicht das schwarze Loch, da sich die Sterne noch außerhalb des Raumes befanden, in dem dessen Gravitation wirksam ist. Erst als sich das 'Sternen-Gas' zu einem 'Sternen-Fluid' verdichtete, gelangten die innersten Sterne in den Bereich der Gravitation des schwarzen Loches.

 

Wie die von den Radioteleskopen erhaltenen Bilder zeigen, umkreisen diese Sterne nun in engen elliptischen Bahnen mit hoher Geschwindigkeit das schwarze Loch. Dabei werden Gas- und Staubwolken ständig in dieses Loch hinein gezogen. Wie es mit der Elektro-Gravitation zu erwarten ist, gibt es dabei nur einen relativ kleinen Bereich um das schwarze Loch herum, in dem sich die Sterne schnell bewegen. Außerhalb dieses Bereiches verhindert die gegenseitige Abstoßung der Elektronenwirbel im 'Sternen-Fluid', dass die Sterne dem schwarzen Loch so nahe kommen, dass dessen gewaltige Gravitation wirksam wird. So ergibt sich eine gute Stabilität des Zentralbereiches der Galaxie gegen die im Zentrum wirkende extrem starke Gravitation.

Mit einem schwarzen Loch im Zentrum der Galaxien und der Elektro-Gravitation MUSS es im frühen Universum kurz nach dem Urknall Sterne mit der Masse einer ganzen Galaxie gegeben haben. Bei einer solchen Größe kann ihre Lebensdauer nur sehr kurz gewesen sein, bis sie mit einer gewaltigen Supernova-Explosion auseinander gerissen wurden.

 

Trotz einer solchen Größe der Sterne wurde deren Materie bei der Explosion offensichtlich nicht sehr weit in das Weltall hinaus geschleudert, sodass sie sich wieder um das schwarze Loch im Zentrum herum verdichten konnte. Im frühen Universum muss also die Wirkung der Gravitation um ein Vielfaches größer gewesen sein als heute. Das erklärt auch, wie Sterne mit der Masse einer Galaxie überhaupt entstehen konnten.

In der Gas- und Staubwolke nach der Supernova-Explosion müssen dann auch zunächst sehr große Sterne mit kurzer Lebensdauer entstanden sein. Wahrscheinlich sind mehrere Sternen-Generationen vergangen, bis die Sterne im Zentralbereich schließlich in die Nähe des schwarzen Loches im Zentrum gelangten. Die bei den jeweiligen Supernova-Explosionen entstandenen schwarzen Löcher haben sich dann bis heute weit von der Galaxie weg in den Weltraum hinaus bewegt.

 

Von Spektralanalysen weiß man, dass es im frühen Universum, als die Galaxien entstanden, nur Wasserstoff und Helium gegeben hat. Also verlief die Kernfusion in den riesigen Ur-Sternen in einem extrem heißen Plasma aus Protonen und Elektronen nur bis zum Helium. Wären diese Sterne also noch größer gewesen, hätte die Gravitation die Elektronen bereits aus dem Plasma hinaus gedrängt, bevor es überhaupt zu einer Kernfusion gekommen wäre.

Damit hatten diese Sterne die maximale Größe, die in dem frühen Universum möglich war. Als die Sterne dann in den nächsten Generationen immer kleiner wurden, entstanden darin immer schwerere Elemente. Von den riesigen Ur-Sternen wissen wir so gut wie nichts. Die Radiowellen einiger Quasare stammen vermutlich von deren Supernova-Explosionen, die sich sehr früh kurz nach dem Urknall ereignet haben müssen - wenn sie nicht einfach nur Neutronensterne in unserer Nähe sind. Dann muss sich das Universum zunächst sehr stark ausgedehnt haben, bevor die Galaxien entstanden. Damit ergibt sich ein relativ langer Zeitraum zwischen den Supernovae der Ur-Sterne und dem Entstehen der Galaxien.

 

Ein Elektronen-Potentialwirbel hat immer so etwas wie ein kleines schwarzes Loch im Zentrum des dreifachen Wirbels entlang der Drehachse. Wenn man den Urknall als Umkehrpunkt der 'Ströme' und 'Felder' nach dem Zeitschalenmodell betrachtet, ist auch er im Prinzip nichts anderes als ein riesiges schwarzes Loch. Also könnte ganz am Anfang der Urknall selbst das Zentrum eines gewaltigen Plasma-Wirbels gewesen sein.

Ein solcher Wirbel kann aber mit der Masse des gesamten Universums niemals stabil gewesen sein. Also waren die positiv geladenen Teilchen im Inneren dicht zusammen gedrängt und die Elektronen bildeten einem Wirbel um sie herum. Damit haben wir gewissermaßen den "wahren" Urknall als eine Art Ur-Supernova, die dieses Plasma auseinander riss.

 

Da in der dicht gedrängten positiv geladenen Ur-Materie aus allen bekannten Quarks keine Kernfusion möglich war, rissen die Elektronen nur die positiv geladenen Protonen aus ihr heraus. Um den Urknall als Kern aus der dichten Materie der im Inneren verbliebenen Quarks herum entstand also eine riesige Wolke aus reinem Wasserstoff-Plasma. Dabei entsprach der Kern im Zentrum dem Neutronenstern bei einer Supernova.

Zunächst drückte eine gewaltige Gravitationskraft das Plasma gegen die Abstoßung der positiven Ladungen der Protonen so dicht zusammen, dass es darin nur Platz für wenige durchlaufende Elektronen gab. Bei weiterer Ausdehnung entstanden dann überall freie Räume zwischen dem Plasma. Damit sank der Druck der Gravitation in den kleinsten Plasma-Bereichen zwischen den freien Räumen so weit ab, dass mehr Elektronen darin Platz fanden, und eine Kernfusion mit Elektronen-Einfang und Neutronen-Anlagerung einsetzte.

Diese kleinsten Plasma-Bereiche waren also nach dem Wirbelprinzip die riesigen Ur-Sterne im frühen Universum. Mit weiterer Ausdehnung gab es dann immer mehr solche Ur-Sterne. Schließlich explodierten sie als Supernovae, sodass sich um den Urknall herum zunächst eine gewaltige und extrem dichte Gaswolke aus Wasserstoff und Helium bildete. Dabei dehnte sich das Universum sehr schnell immer weiter aus. Dann passierte wahrscheinlich zunächst relativ lange Zeit nichts.

 

Bevor aus dem Wasserstoff und Helium Galaxien entstehen konnten, musste das Gleichgewicht in der sich ständig ausdehnenden Gaswolke erst einmal wieder von der schnellen Ausdehnung zu einer Verdichtung unter dem Einfluss der Gravitation hin kippen. Dabei musste der im Zusammenhang mit der Entstehung einer Wellenstruktur beschriebene Grenzwert für die maximale Ausdehnung eines Gases überschritten werden.

Erst dann entstanden, wie vorab beschrieben, um die bei den Supernovae entstandenen massiven schwarzen Löcher herum Sterne und Galaxien. So etwa müsste es jedenfalls nach dem Wirbelprinzip ganz am Anfang kurz nach dem Urknall abgelaufen sein. Dann wären die Radiowellen der drei-Kelvin-Hintergrundstrahlung die mit der Ausdehnung des Universums in die Länge gezogenen Wellen des ersten Lichts im Elektronenwirbel um das Ur-Plasma herum.

Nach den ersten Supernovae muss es dann lange Zeit wieder dunkel im Universum gewesen sein. Es gab nur eine riesige Gaswolke aus Wasserstoff und Helium ohne einen einzigen Stern mit vielen massiven schwarzen Löchern darin. Deshalb gelangen außer der Hintergrundstrahlung und vermutlich den Radiowellen der Quasare keine Informationen aus dieser frühen Zeit des Universums zu uns.

 

Das Vorstehende ist erst einmal so ziemlich alles, was sich zum Thema Urknall und Entstehen der ersten Sterne und Galaxien aus dem Wirbelprinzip und der Elektro-Gravitation schließen lässt. Nachfolgend geht es nun um Vorgänge, die man mit starken Teleskopen bei Supernova-Ausbrüchen und schwarzen Löchern beobachten kann.

In fernen Galaxien gibt es immer wieder einmal gewaltige Blitze aus Gammastrahlen - also extrem kurzwelligen elektromagnetischen Wellen - die im optischen Bereich mit Supernova-Ausbrüchen zusammen fallen. Aus den dabei gemessenen Daten hat man ein Modell berechnet, bei dem entlang der Drehachse des entstandenen Neutronensterns zu beiden Seiten so genannte 'Jets' aus hoch konzentrierten Gammastrahlen weit in das Weltall hinaus abgegeben werden. Die gleichen 'Jets' kann man als Modell berechnen, wenn Materie in ein schwarzes Loch hinein fällt.

 

Wenn solche 'Jets' aus unserer Galaxie auf die Erde gelangen würden, wäre das für alles Leben auf der Erde eine absolut tödliche Gammastrahlen-Dosis. Aus einer fernen Galaxie verteilen sich die Strahlen jedoch so weit über den Raum, dass sie die Atmosphäre gut absorbieren kann. Bevor man aber nun als Wissenschaftler die Alarmglocken läutet, untersucht man erst einmal alle physikalischen Zusammenhänge mit diesen 'Jets'.

Man beobachtet sie ja schließlich nur ab und zu einmal in einer der vielen fernen Galaxien. Damit ist die Wahrscheinlichkeit, dass in absehbarer Zeit ein solcher 'Jet' aus unserer Galaxie auf die Erde trifft, sehr gering. Er müsste ja auch gerade in die Richtung abgegeben werden, in der sich die Erde befindet. Nachfolgend möchte ich also zeigen, welche Erklärungen das Wirbelprinzip und die Elektro-Gravitation für diese 'Jets' aufzeigen.

Zu der Wahrscheinlichkeit, dass ein Gamma-Jet aus unserer Galaxie auf die Erde treffen könnte, sei erst einmal angemerkt, dass nach dem Prinzip des Potentialwirbels mit der Corioliskraft alle Drehachsen in unserer Galaxie weitgehend senkrecht zu der Scheibe mit den Spiralarmen stehen. Eine Supernova, deren Gamma-Jet die Erde treffen könnte, müsste sich also ganz in unserer Nähe in unserem Spiralarm der Galaxie ereignen, was sehr unwahrscheinlich ist. Bei einer Supernova in einem anderen Spiralarm oder im Zentralbereich unserer Galaxie würden die 'Jets' weit an der Erde vorbei in den Weltraum hinaus gelangen.

 

Kommen wir aber nun zu den 'Jets' selbst. Röntgenstrahlen entstehen, wenn Elektronen aus den inneren Bahnen um einen Atomkern heraus geschossen werden, und dann andere Elektronen aus den äußeren Bahnen nach innen nach rücken. Die Wellenlänge resultiert dabei aus dem Abstand zwischen zwei Bohrschen Bahnen.

Gammastrahlen haben eine erheblich kürzere Wellenlänge, die mit Vorgängen im Atomkern zusammen passt, müssen aber gleichzeitig mit dem elektromagnetischen Feld in Verbindung stehen. Bei einer Supernova passt dazu der Elektronen-Einfang, wenn das Plasma in Neutronen-Materie umgewandelt wird.

 

Wie bereits beschrieben, treffen bei einer Supernova-Explosion die nach innen beschleunigten Atomkerne auf den Inneren Elektronenwirbel, wo dann der Elektronen-Einfang stattfindet. Erst danach schließen sie sich im Zentrum des Wirbels zu der extrem dichten Neutronen-Materie zusammen, aus der nur noch Radiowellen zu uns gelangen.

Der innere Elektronenwirbel steht direkt mit dem Magnetfeld in Verbindung, das an den Polen entlang der Achse aus dem Wirbel hinaus tritt. Den inneren Feldlinien dieses Magnetfeldes folgen die Gammastrahlen der beiden 'Jets', die bei einer Supernova ausgestoßen werden. Mit der in ihnen enthaltenen großen Energie kommt es dabei zu einer sehr starken Bündelung.

Der Elektronen-Einfang selbst ist mit dem W--Boson auf einen sehr kleinen Raum beschränkt, woraus die kurze Wellenlänge der Gammastrahlen resultiert. Die Dichte der umgebenden Materie entspricht dabei der in einem Atom oder im Plasma, sodass die Wellenlänge nicht zu Radiowellen hin auseinander gezogen wird, wie es bei der Neutronen-Materie im Zentrum der Fall wäre.

 

Wenn Materie in ein schwarzes Loch fällt, muss sie sich vorher in Neutronen-Materie umwandeln. In normaler Materie mit Atomkernen verhindert die gegenseitige Abstoßung der positiv geladenen Protonen, dass die Materie zu einem schwarzen Loch in sich zusammen fallen kann.

Folglich muss es auch am Rand eines schwarzen Loches, in das Materie hinein fällt, einen Elektronen-Einfang mit einer Umwandlung in Neutronen-Materie geben. Die Neutronen-Materie fällt dann weiter in das extrem starke Gravitationsfeld des schwarzen Loches hinein, bis sie sich schließlich mit einer Umkehrung der 'Ströme' auflöst.

Dabei verstärkt sich das Gravitationsfeld entsprechend der Masse der Neutronen-Materie. Das Gravitationsfeld eines schwarzen Loches wird von der Masse des ehemaligen Sterns erzeugt und steht auch rückwärts durch die Zeit immer noch mit dieser Masse in Verbindung. Damit hat es die gleiche Form wie das Magnetfeld des Wirbels bei einer Supernova. Also werden auch bei einem schwarzen Loch die Gamma-Jets entlang der Drehachse ausgestoßen.

 

Im nachfolgenden Kapitel 2.4 wird im Zusammenhang mit den Grenzen des Universums auf den Zusammenbruch eines Neutronensterns zu einem schwarzen Loch noch detailliert eingegangen. Das dabei Beschriebene gilt auch für die Materie, die in ein schwarzes Loch hinein fällt.

Daher soll es mit den beiden vorstehenden knappen Erklärungen zum Thema Gamma-Jets erst einmal genug sein. Auch ohne weitere Details wird sicherlich deutlich, dass die Beobachtung dieser Gamma-Jets gut mit Elektronen-Potentialwirbeln und der Elektro-Gravitation zusammen passt. Damit bestätigen auch die Gamma-Jets die Sichtweise der Paraphysik.

 

Die Beschreibungen des Universums kurz nach dem Urknall mögen vielleicht etwas abenteuerlich erscheinen, sind aber direkte Schlussfolgerungen aus dem Verhalten eines Elektronen-Potentialwirbels. Vom Urknall erreichen uns ja nur die bereits mehrfach erwähnten Radiowellen, die herzlich wenig aussagekräftig sind. Wenn man die anerkannten Theorien zum Urknall betrachtet, beschreiben auch sie grob den selben Ablauf, auch wenn dabei nicht von einer Art Ur-Supernova als Wirkung eines Potentialwirbels die Rede ist.

Auch bei ihnen gibt eines heißes Plasma am Anfang, von dem die drei-Kelvin-Hintergrundstrahlung ausgeht, und danach eine recht lange Phase der Dunkelheit in einer dichten Gaswolke aus Wasserstoff und Helium, bis das Licht der ersten Sterne diese dichte Wolke durchdringt. Die beschriebenen Supernovae im ersten heißen Plasma entsprechen der Erklärung für die Quasare nach der anerkannten Theorie. Der einzige Unterschied ist also, dass den anerkannten Theorien das Druckprinzip und dem hier Beschriebenen das Wirbelprinzip zugrunde liegt.

2.4 Das Universum als perpetuum Mobile

Das perpetuum Mobile ist eine Maschine, die, wenn sie einmal in Bewegung gesetzt wurde, für immer diese Bewegung beibehält. Bei der Wissenschaft und Technik ist man sich einig, dass es unmöglich ist, eine solche Maschine zu konstruieren und zu bauen. Als anschauliche Beispiele für ein perpetuum Mobile gibt es verschiedene optisch verzerrt dargestellte Zeichnungen, wie beispielsweise ein Gerinne, in dem Wasser über mehrere kleine Wasserfälle im Kreis herum fließt. Dabei kommt dieser Kreislauf nur durch eine optische Täuschung zustande, was die Unmöglichkeit einer solchen Maschine unterstreichen soll.

Wie kann man also behaupten, dass unser gesamtes Universum eine solche unmögliche Maschine sein soll? Man könnte aber auch eine Gegenfrage stellen: Woher kommt die ganze Energie im Universum, wenn es kein perpetuum Mobile ist? Wenn überall ständig durch Reibungsverluste Energie verbraucht würde und keine Energie irgendwo von außen dazu käme, dann würde das Universum doch immer kleiner werden und schließlich mit einem gewaltigen 'Llankru' (= Urknall rückwärts) in sich zusammen fallen. Es dehnt sich aber immer schneller aus. Ist es also ein perpetuum Mobile oder bezieht es vielleicht irgendwie von außen immer neue Energie. Wo soll diese Energie aber her kommen? Vielleicht aus dem Willen eines allmächtigen Gottes?

 

Der allmächtige Gott als Quelle dieser Energie kann keinen Naturwissenschaftler wirklich überzeugen. Als rein geistige oder metaphysische Erscheinung könnte er doch keine real existierende physikalische Energie erzeugen. Er könnte aber die Bedingungen schaffen, die das Universum in Bewegung halten - man denke hier an die parametrische Erregung eines schwingfähigen Systems und die Übertragung aller Bewegungsmuster durch das Universum über das elektromagnetische Feld. So könnte ein metaphysischer Gott nach dem Prinzip einer Evolution das Weltall in Bewegung halten. Nur müsste dann die dafür benötigte Energie ständig im Universum enthalten sein. Damit wäre das von Gott erschaffene Universum ein perpetuum Mobile, also eine unmögliche Maschine, die es nicht geben darf.

Das physikalische "Verbot" für eine solche Maschine ist im zweiten Hauptsatz der Thermodynamik formuliert. Danach kann niemals Wärmeenergie von einem kälteren zu einem wärmeren Ort fließen. Wenn man diese Energie aber mit einer Wärmepumpe in eine andere Form umwandelt, zum wärmeren Ort transportiert und dann wieder in Wärme zurück verwandelt, funktioniert es doch. Daher argumentiert man, dass die Wärmepumpe - also beispielsweise der Kompressor in einem Kühlschrank - eine große Menge Energie für ihren Antrieb benötigt, und deshalb der zweite Hauptsatz der Thermodynamik gültig bleibt.

 

Geht aber wirklich immer viel Energie verloren, wenn wir andere Energie als Wärme von einem kälteren zu einem wärmeren Ort fließen zu lassen? Kann es vielleicht sein, dass wir uns mit einer Wärmepumpe und ihrem hohen Energiebedarf einfach nur irgendwie dumm anstellen? So wie es Schauberger beschreibt, bewegen wir nur falsch und verbrauchen deshalb so viel Energie. Wenn also dieser Energietransport von einem kalten zu einem warmen Ort wie eine Schwingung von selbst ablaufen könnte, wären wir jedenfalls einem perpetuum Mobile ein gutes Stück näher gekommen.

In nachfolgenden Kapiteln werde ich mehrere technische Möglichkeiten zu einem solchen Energietransport vorstellen und auch den zweiten Hauptsatz der Thermodynamik noch einmal genauer betrachten. Hier gehen wir erst einmal davon aus, dass nach dem Prinzip einer Schwingung Energie von einem kälteren zu einem wärmeren Ort fließen kann. Bleiben also noch die Reibungsverluste, durch die das Universum am Ende mit einem 'Llankru' zusammen fallen müsste. Gibt es aber vielleicht Bedingungen, bei denen keine Verluste auftreten?

 

Hierzu gibt uns wieder der zweite Hauptsatz der Thermodynamik Aufschluss. Im einem Zusatz heißt es darin sinngemäß: In einem vollkommen abgeschlossenen System können reversible Prozesse ohne Energieverlust ablaufen. Eine Schwingung oder ein Kreislauf ist ein reversibler Prozess. Also kann das Universum ein perpetuum Mobile sein, wenn es ein vollkommen angeschlossenes System ist.

Bei unserer Technik gibt es niemals ein vollkommen angeschlossenes System. Jede Maschine steht irgendwie mit ihrer Umgebung in Verbindung und gibt so auch immer Energie in Form von Verlusten nach außen ab. So wird jedes real existierende Pendel durch Reibung oder sonstige Verluste abgebremst und kommt schließlich zum Stillstand.

Was umgibt aber unser Universum? Ist dieses WeltALL wirklich ALLES, was in der Welt existiert, oder gibt es vielleicht irgend etwas um unser Universum herum? Damit sind wir wieder bei der Frage der Unendlichkeit, bei der sich Einstein nicht so ganz sicher war. Selbst wenn unser Universum nur eine Welt innerhalb einer anderen Welt sein sollte, - vielleicht ein Universum von vielen anderen - was umgibt dann wiederum diese andere Welt?

 

Wenn es nirgendwo eine Grenze gibt, muss es doch unendlich viele Welten ineinander geben. Damit kommen wir wieder zu den Bäumen, die nicht in den Himmel wachsen können. Für unendlich viele Universen wäre unendlich viel Energie notwendig. Wo soll die nun wieder her kommen?

Astronomen haben festgestellt, dass die Wellenlänge des Lichts mit zunehmender Entfernung in kosmischer Größenordnung immer größer wird. Damit ist erwiesen, dass sich das Universum ausdehnt. Wenn wir diese Ausdehnung zurück rechnen, ergibt sich vor etwa fünfzehn Milliarden Jahren ein Punkt ohne jede Ausdehnung, aus dem das gesamte Universum entstanden sein müsste - der so genannte Urknall.

Was ist aber ein unendlich kleiner Punkt mit unendlich großer Dichte? Ohne jede Ausdehnung ist er doch einfach NICHTS. Er ist viel weniger ein leerer Raum. Unendliche Dichte ohne Ausdehnung ist ein unmöglicher Zustand. So etwas kann es nicht geben. Wäre also unser Universum bei einem gewaltigen "Knall" aus diesem Nichts entstanden, dann wäre auch das Universum selbst ein unmöglicher Zustand. Es wäre NICHTS. Es würde also nicht existieren.

 

Offensichtlich existiert es aber doch. Das Zeitschalenmodell erklärt das mit dem Urknall als Umkehrpunkt der 'Ströme' und 'Felder', die sich in einem ewigen Kreislauf befinden. Dabei können die 'Ströme' und 'Felder' zwar beliebig dicht an diesen unmöglichen Punkt heran kommen, diesen aber niemals erreichen.

Also stellt dieser Punkt nur eine unerreichbare Grenze dar, die als irgendwie geartetes Objekt nicht existieren muss. Wenn aber der Urknall ein Umkehrpunkt in einem Kreislauf ist, wo ist dann der zweite Umkehrpunkt? Und wo fließen die 'Ströme' der Materie rückwärts durch die Zeit von diesem zweiten Umkehrpunkt zum Urknall zurück? Aufschluss darüber gibt der Aufbau eines Atoms, wie er in Kapitel 2.2.2, Abbildung 2.2.2:1 nach dem Zeitschalenmodell in der Raum-Zeit-Ebene dargestellt ist.

Die Zeit verläuft in dieser Abbildung von unten nach oben. Bezieht man die Elementarladungen der Teilchen in die Betrachtung mit ein, heben sich die 'Ströme' des Elektrons e und der Quarks in Zeit-Richtung genau gegenseitig auf: Elektron e und Down-Quark d: -1 - 1/3 = -4/3, die beiden Up-Quarks u: 2/3 + 2/3 = 4/3. Also kann die Energie der Ströme in den Elektronen und Down-Quarks vom Urknall weg nach außen und in den Up-Quarks entgegen der Zeit zum Urknall zurück fließen. Auch bei den Neutronen in schwereren Elementen als dem hier als Beispiel gezeigten Wasserstoff heben sich die 'Ströme' gegenseitig auf: die beiden Down-Quarks: -1/3 -1/3 = -2/3, das Up-Quark: 2/3. Damit kann die gesamte Energie der 'Ströme' in den Up-Quarks der Atomkerne in einem Kreislauf zum Urknall zurück gelangen.

 

Es fehlt also nur noch eine Erklärung für den zweiten Umkehrpunkt. Bei neueren Untersuchungen hat man heraus gefunden, dass die Ausdehnung des Universums immer schneller wird. Es ist also nicht zu erwarten, dass es irgendwann einmal zu einem Stillstand kommt, und sich das Universum danach vielleicht wieder zusammen zieht. Auf was für einen Zustand bewegt sich das Universum aber zu, wenn es sich immer weiter und schneller ausdehnt?

Es ist doch eine unendliche Ausdehnung ohne Inhalt, also wieder ein unmöglicher Zustand, der nichts anderes als einfach nur NICHTS bedeutet. Auch an diesen Zustand kann ein atomares Teilchen beliebig nahe heran kommen, kann ihn aber niemals erreichen. Also dehnt sich das Universum immer weiter aus, bis irgendwann einmal die gesamte darin enthaltene Materie in sich zusammen fällt und der Kreislauf im Inneren der Atomkerne zum Urknall zurück führt.

 

Wie könnte aber ein solcher Zusammenbruch der Materie erfolgen? Aufschluss darüber geben sehr massereiche Sterne, die zu schwarzen Löchern zusammen fallen. Durch ihre große Masse erfolgt bei ihnen der Zusammenbruch der Materie schon sehr früh. Mit der weiteren Ausdehnung des Universums werden aber immer kleinere Sterne zu schwarzen Löchern zusammen fallen.

In einem sehr späten Universum wird dann sogar ein einzelnes Atom nicht mehr stabil sein und als kleines schwarzes Loch enden, wenn es nicht schon lange vorher in ein anderes schwarzes Loch hinein gestürzt ist. Mit den schwarzen Löchern haben wir also eine Möglichkeit, einen Blick auf den Zusammenbruch der Materie zu werfen.

 

Wenn die beiden Grenzen des Universums an den Wendepunkten ins absolute NICHTS führen, ist das Universum ein vollkommen abgeschlossenes System. Es kann absolut nichts aus ihm heraus und auch absolut nichts in es hinein. Wenn also die in ihm ablaufenden Vorgänge reversibel sind, IST das Universum ein perpetuum Mobile. Schwingungen und Kreisläufe sind reversible Vorgänge. Was spricht also noch gegen diese Annahme?

Es bleibt doch nur noch die Frage, wo die Energie her kommt, die im Universum enthalten ist. Diese Frage hat Einstein bereits beantwortet. Nach seiner Relativitätstheorie ist Masse gleich Energie, und Masse ist eine Eigenschaft Materie. Wenn es also Materie gibt, die im Universum ewig existiert, dann gibt es auch eine entsprechende Energie, die ebenfalls ewig existiert.

 

Mit der parametrischen Erregung gibt es auch etwas, das diese Energie in Bewegung versetzt. Ob diese Erregung schließlich aus dem Willen Gottes resultiert oder das Ergebnis einer evolutionären Entwicklung ist, bleibt eine Glaubensfrage. Dabei schließt die eine Möglichkeit die andere noch nicht einmal aus. Wenn man Gott mit einer universellen schöpferischen Kraft, die in der Materie enthalten ist, gleich setzt, dann hat Gott das Universum erschaffen.

Mit der Betrachtung des Universums zwischen den beiden Grenzwerten des Nichts ergeben sich auch einige Erkenntnisse über schwarze Löcher und die Zustände in der Nähe des Urknalls. In den Urknall können wir nicht hinein sehen, und die Versuche mit großen Teilchenbeschleunigern wie dem im CERN bei Genf, geben nur wenig Aufschluss darüber, wie eine Umkehr der 'Ströme' und 'Felder' gemäß dem Zeitschalenmodell dort ablaufen könnte. Es ist zu vermuten, dass bei den Versuchen schon eine erheblich größere Energie und damit Dichte der Materie erreicht wird, als für eine Umkehr der 'Ströme' und 'Felder' notwendig ist.

 

Für Astronomen endet der Blick in den Urknall mit der Dichte, bei der die Ausdehnung des leeren Raumes im Weltall begann, und sich das erste Licht durch diesen Raum ausbreitete. Das zeigt sich für uns als die Bekannte drei-Kelvin-Hintergrundstrahlung, die wir mit Radioteleskopen empfangen können. Dabei ergeben sich die langwelligen Radiosignale und die sehr geringe Temperatur in der Nähe des absoluten Nullpunktes aus einer extremen Ausdehnung der Wellenlänge. Bei der Dichte des frühen Universums muss es am Anfang eine extrem heiße Gas- oder Plasmawolke gegeben haben.

In einem schwarzen Loch, das wir irgendwo weit draußen im Weltraum finden, sehen wir zwar auch nicht viel mehr, aber man kann davon ausgehen, dass die Dichte beim Zusammenbruch der Materie nicht größer ist, als für eine Umkehr und Vermischung der 'Ströme' und 'Felder' minimal notwendig. Vermutlich ist sie nicht sehr viel größer als Dichte eines Neutronensterns.

Wenn das so ist, gibt es in einem schwarzen Loch keine Materie aus schweren Quarks (Strange-, Charm-, Bottom- oder Top) mit extrem hoher Dichte, wie man sie im Urknall vermutet. So lassen sich die Zustände in einem schwarzen Loch nach dem Zeitschalenmodell relativ einfach anschaulich darstellen.

 

Abbildung 2.4.1; Neutronenstern und schwarzes Loch

 

 

 

In Abbildung 2.4.1 ist der Zusammenbruch der Materie nach einer Supernova-Explosion in der Raum-Zeit Ebene dargestellt. Dabei entspricht die Waagerechte den drei Dimensionen des Raumes. Die drei Dimensionen der Zeit sind in der senkrechten aufgetragen, wobei die Richtung der Zeit von unten nach oben verläuft.

Der bei der Explosion im Zentrum verbleibende Kern aus Protonen p und Elektronen e - die in den Atomkernen enthaltenen Neutronen sind hier nicht dargestellt - wird zunächst zu einer extrem dichten Neutronen-Materie n / n̅ zusammen gedrückt. Der dabei entstandene Neutronenstern kann dann noch lange existieren, bevor er schließlich zu einem schwarzen Loch zusammen bricht. Bei einer sehr großen Masse des explodierenden Sterns kann aber auch sofort ein schwarzes Loch entstehen. Dann ist nach der Supernova-Explosion im Zentrum der verbleibenden Gaswolke weder optisch noch mit einem Radioteleskop ein Objekt zu erkennen.

Mit dem Zusammenbruch zu einem schwarzen Loch endet für den Neutronenstern die Zeit. Obwohl er danach - also weiter oben in der Abbildung - nicht mehr existiert, gibt es immer noch die Wirkung der Gravitation, die seiner Masse entspricht. Hinter dem zusammen gebrochenen Stern gibt es aber nur noch das Nichts, das unser Universum umgibt. Was erzeugt also diese starke Gravitation?

 

Wenn es uns gelingt, ein schwarzes Loch mit einem Teleskop zu beobachten, sehen wir entweder ein durch eine Gravitationslinse verzerrtes Bild der dahinter befindlichen Objekte, oder es stürzt gerade etwas in das schwarze Loch hinein, das wir sehen können. Wenn etwas hinein stürzt, zeigt sich um einen völlig schwarz erscheinenden Kreis herum ein Ring aus Materie, der sich sehr scharf vom schwarzen Inneren abzeichnet.

Dieser Rand des Kreises wird Ereignishorizont genannt. Nach der anerkannten Astrophysik ist die Gravitation innerhalb dieses Kreises so groß, dass absolut nichts - also auch kein Licht - aus diesem Kreis heraus kommen kann. Die immer noch existierende Gravitation soll dann von einer so genannten 'Singularität' ohne Ausdehnung mit der Masse des ehemaligen Sterns im Zentrum des Kreises ausgehen. Woraus soll aber diese 'Singularität' bestehen?

 

Nach dem Zeitschalenmodell gibt es im Inneren dieses Kreises nur das Nichts, das unser Universum umgibt. Wie kann nun dieses Nichts die Masse eines Sterns besitzen? Nach dem Wirbelprinzip geht das elektromagnetische Feld und damit gemäß der Elektro-Gravitation auch die Schwerkraft von Wirbeln aus, die von den 'Strömen' atomarer Teilchen gebildet werden. Diese Teilchen sind die Elektronen der Atomhüllen oder des Elektronen-Potentialwirbel eines Sterns und die Quarks im inneren Atomkerne.

Wenn also Gravitation vorhanden ist, so muss es auch atomare Teilchen geben, die einen Wirbel erzeugen, dessen Intensität der Stärke der Gravitation entspricht. Man weiß heute, dass sich schwarze Löcher sehr schnell drehen. Das kann man erkennen, wenn Materie in sie hinein stürzt. Ein Wirbel ist also vorhanden. Aber von was für einem atomaren Teilchen geht er aus?

 

Abbildung 2.4:2; Der Zusammenbruch der Materie

 

 

Wenn man betrachtet, wie sich nach den Zeitschalenmodell die 'Ströme' der Up- und Down-Quarks der Neutronen beim Zusammenbruch der Materie vermischen, erkennt man, dass dabei für jedes Neutron ein Elektron-Neutrino νe übrig bleibt. In Abbildung 2.4:2 ist das wieder in der Raum-Zeit-Ebene dargestellt. Die Zeit verläuft wieder von unten nach oben.

Also gibt es unten das Neutron, das aus zwei Down-Quarks d und einem Up-Quark u besteht. Die Quarks setzen sich aus jeweils drei Strömen zusammen. Beim Up-Quark sind es ein Strom in Raumrichtung und zwei Ströme entgegengesetzt der Richtung der Zeit, was einer Elementarladung von +2/3 entspricht. Bei den Down-Quarks sind es zwei Ströme in Raumrichtung und ein Strom in Richtung der Zeit. Damit hat das Down-Quark die Elementarladung -1/3. Mit zwei Down-Quarks und einem Up-Quark beträgt die Ladung des Neutrons 2/3 - 1/2 - 1/3 = 0. Es ist also neutral. Oben in Abbildung 2.4:2 gibt es dann ein weiteres neutrales Teilchen mit drei Strömen Raumrichtung: das Elektron-Neutrino νe. Folglich muss der Wirbel, aus dem die Gravitation eines schwarzen Loches hervor geht, aus Elektron-Neutrinos νe bestehen.

 

In Abbildung 2.4:1 sind die Neutrinos νe als gestrichelte Linien eingezeichnet. Mit dem beschriebenen Wirbel bilden sie eine Art Trichter in der 'Raumzeit', in dem das sonst in Raumrichtung waagerecht verlaufende elektromagnetische Feld rückwärts durch die Zeit zum ehemaligen Stern hin gekrümmt wird. Damit führt ein Blick in ein schwarzes Loch immer genau zu dem Augenblick, in dem die Materie des Sterns zusammen bricht. Bei diesem Zusammenbruch der Materie gibt es eine Vermischung der 'Ströme'. Daher ist er mit dem W--Boson der schwachen Wechselwirkung zu vergleichen, bei dem ein Proton u + u + d und ein Elektron e in ein Neutron u + d + d und ein Elektron-Neutrino νe umgewandelt werden.

Die dabei stattfindende Umwandlung eines Up-Quarks u in ein Down-Quark d ist in Abbildung 2.4:3 in der Raum-Zeit-Ebene dargestellt. Diese Umwandlung gibt es in den Sternen, wenn bei der Kernfusion schwerere Elemente entstehen und besonders häufig bei Supernova-Explosionen. Die dabei entstehenden Neutrinos νe durchdringen dann in sehr großer Zahl ohne irgendwelche Wechselwirkungen jede Materie im Universum. In Abbildung 2.4:1 sind auch sie als gestrichelte Linie eingezeichnet.

 

Abbildung 2.4:3; Schwache Wechselwirkung, W--Boson

 

Das W--Boson besitzt eine sehr kurze Lebensdauer von einem kleinen Bruchteil einer Sekunde. Man kann daher annehmen, dass der Zusammenbruch der Materie in ähnlich kurzer Zeit erfolgt. Dann steht bei einem Blick in ein schwarzes Loch ein kleiner Bruchteil einer Sekunde mit mehreren Milliarden Jahren bis zum endgültigen Zusammenbruch der Materie in Verbindung. Die Zeit wird also extrem auseinander gezogen. Dann ergeben sich aus sichtbarem Licht keine Radiowellen wie bei Neutronensternen, sondern Wellen, die wahrscheinlich länger sind als der Durchmesser einer Galaxie.

Wie soll also eine Antenne aussehen, mit der man diese Wellen empfangen kann? Da würde doch die Größe unseres Sonnensystems als Länge des Dipols bei weitem nicht ausreichen. Folglich gibt es für den zusammen stürzenden Stern selbst gar keinen Ereignishorizont. Er sendet so etwas wie Licht aus. Nur die sehr starke Krümmung des aus dem Neutrino-Wirbel gebildeten Trichters dehnt die Zeit so stark, dass wir nichts davon empfangen können. Deshalb sind schwarze Löcher schwarz - sowohl optisch als auch für Radioteleskope.

Die aus den Neutrinos gebildete Grenze zum Nichts, das unser Universum umgibt, können wir nicht sehen, da sich Neutrinos wie das Licht in Raum-Richtung ausbreiten. Deshalb sind sie nicht wie der zusammen brechende Stern über das elektromagnetische Feld mit den Elektronenhüllen der Atome verbunden. Also ist der wahre Ereignishorizont diese unsichtbare Grenze zum Nichts.

Bei der Betrachtung als Grenzwert gibt es mit den Neutrinos keinen irgendwie plötzlichen Übergang. So lange noch nicht alle Neutrinos abgezählt sind, kann es immer noch welche geben, die sich ein Stück tiefer im Nichts befinden. Aber obwohl es unfassbar viele dieser Neutrinos gibt, ist ihre Anzahl endlich groß. Hat man also irgendwann alle Neutrinos abgezählt, gibt es absolut nichts mehr, das sich noch weiter draußen im Nichts befinden könnte. Aus der endlichen Anzahl der Neutrinos im Universum ergibt sich so die Grenze zum unendlichen Nichts. Das ist nach dem Zeitschalenmodell das 'Prinzip der endlichen Unendlichkeit'. Ich hoffe, es ist nun mit dem Vorstehenden so einigermaßen verständlich geworden.

 

Kommen wir nun zum so genannten Urknall als die zweite Grenze zum umgebenden Nichts. Hier ist die drei-Kelvin-Hintergrundstrahlung das letzte, was uns uns davon noch erreicht. Im Gegensatz zu einem schwarzen Loch ist uns also der Blick in den Urknall hinein praktisch völlig versperrt. Nach dem Zeitschalenmodell ist aber der Urknall genau so ein Umkehrpunkt der 'Ströme' und 'Felder' wie der Zusammenbruch der Materie in einem schwarzen Loch. Entsprechend gibt es auch im Zentrum des Urknalls dieses das Universum umgebende Nichts.

Also könnte man doch einfach Abbildung 2.4:1 auf den Kopf stellen, und hätte im Prinzip die Vorgänge im Urknall. So ganz grob im Prinzip ist das sogar richtig. Nur haben wir beim Zusammenbruch der Materie eine unendliche Ausdehnung ohne Inhalt als Grenzwert und beim Urknall genau das Gegenteil, eine unendlich große Dichte ohne Ausdehnung. Damit öffnet sich die Grenze nicht zu einem unendlich großen Raum hin, sondern zieht sich zu einem unendlich kleinen Punkt zusammen. Nun haben wir es also wirklich mit einer 'Singularität' zu tun.

 

Betrachten wir wieder Abbildung 2.4:1, wird der Raum, der unser Universum ausfüllt, in Zeit-Richtung von den Elektronenhüllen e und in Raum-Richtung von den Elektron-Neutrinos νe begrenzt. Bei Neutronensternen treten dann Up-Quarks und Anti-Up-Quarks in einem bosonischen Mischzustand aus Neutron und Antineutron n / n̅ an die Stelle der Elektronen.

Dabei bilden das Elektron e und das Elektron-Neutrino νe ein Raumsystem mit drei Raum- und drei Zeit-Dimensionen. Mit den schweren Leptonen Müon μ und Tauon τ und den zugehörigen Neutrinos ergeben sich Möglichkeiten für weitere Raumsysteme, die bei einer sehr großen Dichte der Materie stabil sein könnten. Von der Sonne erreichen ständig einige Müonen die Erde, obwohl sich ihre Anzahl in einem kleinen Bruchteil einer Sekunde jeweils halbiert.

Müonen zerfallen mit einer sehr kurzen Halbwertzeit. Bei der Zeit, die das Licht von der Sonne zur Erde benötigt, muss es also im Plasma der Sonne sehr viele Müonen geben, die bei den dort stattfindenden Kernreaktionen entstehen. Es könnte also bereits im Plasma der Sonne ein solches Raumsystem aus Müonen und Müon-Neutrinos geben.

 

Mit dem Müon μ und dem Müon-Neutrino νμ ergibt sich ein Raumsystem mit zwei Zeit- und vier Raum-Dimensionen, in dem etwas ähnliches wie Atomkerne aus Strange- und Charm-Quarks existieren könnten. Entsprechend könnte es ein weiteres Raumsystem aus Tauon τ und Tau-Neutrino ντ mit einer Zeit- und fünf Raum-Dimensionen geben, in dem die Entsprechungen der Atomkerne aus Bottom- und Top-Quarks bestehen.

Man sollte nun nicht versuchen, sich das irgendwie vorstellen zu wollen. Mehr als drei Raum-Dimensionen liegen wie auch die Zeit-Dimensionen außerhalb unserer Vorstellungskraft. Auch die Versuche in Teilchenbeschleunigern liefern hier keine brauchbaren Erklärungen, da wir damit nur solche Zustände beobachten können, die in unserem Raumsystem mit drei Raum- und drei Zeit-Dimensionen zustande kommen.

So erhalten wir nur Informationen über atomare Teilchen wie die schweren Quarks (Strange, Charm, Bottom und Top) und Leptonen (Müon und Tauon), aber nicht über die Wechselwirkungen, die in einem sehr dichten 'Raum' mit vier oder fünf Raum-Dimensionen möglich sein könnten.

 

Mit den Raumsystemen könnte die Grenze zum Nichts der 'Singularität' im Urknall folgendermaßen aufgebaut sein: Um die 'Singularität' herum gibt es zunächst eine Vermischung aller 'Ströme' und 'Felder' der Materie, die entsprechend dem W--Boson und dem Zusammenbruch der Materie in einem schwarzen Loch nur einen kleinen Bruchteil einer Sekunde existiert.

Dann spannt sich ein 'Raum' aus Tauonen und Tau-Neutrinos auf, der die erste Ausdehnung des Universums ermöglicht. Nach relativ kurzer Zeit wird dieser kleine 'Raum' von einem sehr viel größeren 'Raum' aus Müonen und Müon-Neutrinos abgelöst, der auch viel länger bestehen bleibt. Bei weiterer Ausdehnung entsteht dann schließlich der bekannte Raum unseres Universums aus Elektron und Elektron-Neutrino mit dem elektromagnetischen Feld. Erst dann geht im Universum das Licht an, und wir erfahren etwas über den Urknall. Wegen der noch extrem hohen Dichte im frühen Universum kommen bei uns von diesem ersten Licht nur Radiowellen an.

 

Die Grenze zum Nichts bilden auch mit den drei Raumsystemen Neutrinos. Im Gegensatz zu einem schwarzen Loch ist es aber nicht nur das Elektron-Neutrino, sondern es sind alle drei bekannten Neutrino-Arten. Weit draußen im Weltall gibt es zwei Stufen eines Zusammenbruchs, die jeweils mit Elektron-Neutrinos eine Grenze im Raum erzeugen: das Entstehen eines Neutronensterns und dessen Zusammenbruch zu einem schwarzen Loch.

Mit den drei Raumsystemen gibt es im Urknall mindestens drei solche Stufen mit dem Elektron-Neutrino, dem Müon-Neutrino und dem Tau-Neutrino als Grenze. Wenn es im Urknall ähnliche Zustände wie die Materie in einem Neutronenstern geben sollte, könnten es sogar insgesamt sechs Stufen sein. Solche Zustände könnten mit neutralen Mesonen zustande kommen, bei denen es wie bei der Materie in einem Neutronenstern einen bosonischen Mischzustand aus Teilchen und Antiteilchen gibt.

 

Da es sich um eine theoretisch abstrakte Betrachtung handelt, verzichte ich hier auf weitere Details. Aus der Struktur der Materie lassen sich bezüglich der Raumsysteme noch viele weitere Zusammenhänge heraus lesen. Um diese zu verstehen, benötigt man jedoch fundierte Kenntnisse in der Atomphysik und Quantenmechanik.

Im Anhang gibt es dazu Zeichnungen und einige genauere Beschreibungen. Mit den drei Raumsystemen zeigt sich aber auch ohne weitere Erklärungen eine an die Evolution erinnernde Entwicklung des Universums aus sehr dichten Strukturen im Urknall zu dem großen leeren Raum des Weltalls, den wir heute kennen. Das passt sehr gut mit dem zusammen, was ich in Kapitel 2.1 über das Prinzip der Resonanz bei der Entstehung des Universums beschrieben habe.

 

Nur zur Vollständigkeit sei noch folgendes erwähnt: Bei der Erklärung der Zustände im Urknall nach dem Zeitschalenmodell gibt es keine 'inflationäre Ausdehnung' oder 'Teilchen-Antiteilchen-Vernichtung'. Mit diesen Vorgängen wird der nach der anerkannten Theorie erklärt, warum wir im Universum nur Materie und keine Antimaterie vorfinden.

Nach dem 'Prinzip der gegensätzlichen Pole' besteht das Universum zu gleichen Teilen aus Teilchen und Antiteilchen, die sich nur durch eine entgegengesetzte Richtung in der 'Raumzeit' voneinander unterscheiden.

Würde man also die 'Raumzeit' in ihren sechs Dimensionen irgendwie um den Urknall herum umrunden, so würde man immer nur auf Materie stoßen. Verglichen mit der dem Urknall gegenüber liegenden Seite der 'Raumzeit' ist diese Materie aber Antimaterie, da dort die Zeit in die entgegengesetzte Richtung verläuft. Bei dieser Sichtweise hat es in der Nähe des Urknalls keine 'Teilchen-Antiteilchen-Vernichtung' gegeben, bei der durch ein irgendwie geartetes Ungleichgewicht nur die Teilchen übrig geblieben sind. Folglich ist auch keine 'inflationäre Ausdehnung' zur Erklärung eines solchen Vorganges notwendig.

 

Nun dürfte wieder einmal bei einem Nicht-Physiker die Verwirrung komplett sein. Wie soll man aber diese extrem komplexen Zusammenhänge irgendwie allgemein verständlich machen? Selbst ohne die - bei einem Fachbuch unerlässlichen - vollständigen Erklärungen oder Beweise, muss ich vieles einfach weg lassen, dass eigentlich unbedingt zu dieser Thematik gehört - wie beispielsweise die allgemein anerkannte Erklärung für eine 'inflationäre Ausdehnung' des Universums. Ich hoffe, der Aufbau der beiden Grenzen des Weltalls zum umgebenden Nichts ist trotzdem so einigermaßen verständlich geworden. Im nächsten Kapitel wird es hoffentlich wieder übersichtlicher und verständlicher.

2.5 Der Aufbau der Atomkerne

Mit der Geometrie der Schalenstruktur nach dem Zeitschalenmodell lässt sich der Aufbau aller Atomkerne sehr anschaulich darstellen. Dabei zeigt sich von den kleinsten bis zu den größten Atomkernen eine vierfache Systematik. Zeichnungen und eine vollständige Tabelle mit allen 92 Elementen von Wasserstoff bis Uran gibt es dazu in meinem (bisher unveröffentlichten) Buch zum Zeitschalenmodell. Hier möchte ich diese Systematik nur knapp und möglichst verständlich vorstellen. Neu ist hier der Bezug zur Kernfusion im Potentialwirbel mit Neutronen-Anlagerung, die noch nicht bekannt war, als das Zeitschalenmodell entstand.

 

Nach der vierfachen Systematik sind die Atomkerne aufsteigend mit ihrer Größe folgendermaßen aufgebaut:

 

1. Sonderformen der kleinsten Atomkerne,

2. Proton-Neutron-(PN-)Ringe mit Proton-(P-) oder

Neutron-(N-)Brücken,

3. Neutronen-(N-)Ringe mit Proton-(P-)Brücken,

4. Netz aus mehreren Neutronen-(N-)Ringen, die mit

Proton-(P-)Brücken miteinander verbunden sind

 

Der erste Teil der Systematik ist in Abbildung 2.5:1 dargestellt. Ganz links ist der Wasserstoff-Kern 1H1, wie er bereits in Kapitel 2.2.2 Abbildung 2.2.2:1 gezeigt ist. Hier fehlt nur die Elektronenhülle e. Der kleine Kreis steht hier wieder für die Schale des Down-Quarks d, die beiden großen Kreise stehen für die Schalen der beiden Up-Quarks u. Beim Deuterium oder schweren Wasserstoff 1H2 lagert sich ein Neutron n, also ein Up-Quark u und zwei Down-Quarks d, an das Proton p des Wasserstoffs an. Dabei ergibt sich die gezeigte symmetrische Struktur.

Wenn sich dann weitere Neutronen anlagern, kommen wir zum Tritium H3 und Helium 2He3 und 2He4. Während sich beim 1H3 und 2He3 noch symmetrische Sonderformen zeigen, ist Helium 2He4 bereits der erste Vertreter der zweiten Stufe der Systematik: der kleinste PN-Ring mit sechs Up- und ebenfalls sechs Down-Quarks. Durch den symmetrischen Aufbau ist nicht klar definiert, wo sich jeweils ein Proton oder ein Neutron befindet. Lediglich die Anzahl der Up- und Down-Quarks legt fest, um welches chemische Element oder Isotop es sich handelt. Beim PN-Ring des Helium 2He4 kann man sich aber vorstellen, dass sich rechts und links jeweils ein Proton befindet, das oben und unten jeweils mit einem Neutron mit dem anderen verbunden ist.

 

Abbildung 2.5:1; Quark-Schalen der kleinsten Atomkerne

 

 

Wenn sich an einen PN-Ring weitere Protonen und Neutronen anlagern, ergeben sich größere Ringe, die sich mit Brücken aus Protonen (P-Brücken) oder Neutronen (N-Brücken) in kleinere Ringe aufteilen. Für jeweils die gleiche Anzahl Neutronen und Protonen ergibt sich einfach ein größerer Ring, was zu einer ausgedehnten offenen und instabilen Struktur führen würde. Die Natur strebt jedoch kompakte Strukturen an. Deshalb teilen sich diese Ringe mit jeweils einem zusätzlichen Neutron n in kleinere miteinander verbundene Ringe auf.

Bei einer geraden Anzahl Neutronen n ergeben sich mit N-Brücken symmetrische Strukturen, bei einer ungeraden Anzahl mit P-Brücken. Abbildung 2.5:2 zeigt, wie sich diese Brücken in einen PN-Ring einfügen. Dabei sind die Schalen der Protonen p gestrichelt eingezeichnet. Die N- oder P-Brücke ist mit dicken Linien gekennzeichnet.

 

Abbildung 2.5:2; P- und N-Brücken in einem PN-Ring

 

 

Um den Aufbau der größeren Atomkerne zu verstehen, muss man zunächst auch die dritte Stufe der vierfachen Systematik kennen. In einem Übergangsbereich gibt es nämlich beide Formen nebeneinander. Die dritte Stufe ist ein Ring aus Neutronen (N-Ring), an dem jeweils nach außen zeigend die Protonen angeordnet sind. Der kleinste N-Ring ist mit fünf Neutronen n der Kern des Bor 5B10, der in Abbildung 2.5:3 gezeigt ist.

Man erkennt sofort, dass mit N-Ringen erheblich kompaktere Strukturen entstehen als mit PN-Ringen. Gleichzeitig zeigen bei N-Ringen die Protonen p immer nach außen, sodass eine gute Verbindung der Up-Quarks mit dem umgebenden elektromagnetischen Feld zustande kommt. Auch in Abbildung 2.5:3 sind die Schalen der Protonen p gestrichelt eingezeichnet.

 

Abbildung 2.5:3; Quark-Schalen des Bor 5B10

 

Wie schon die PN-Ringe, teilen sich auch größere P-Ringe mit zusätzlichen Neutronen in mehrere kleinere Ringe auf. Dabei wird mit dem zusätzlichen Neutron n eins der Protonen p mit der anderen Seite des Ringes verbunden. So entsteht eine P-Brücke, wie sie in Abbildung 2.5:4 gezeigt ist. Auch hier sind wieder die Protonen gestrichelt gezeichnet, und die Brücke ist mit einer dicken Linie kenntlich gemacht.

Bei der vierten und letzten Stufe der vierfachen Systematik verbinden bei großen Atomkernen P-Brücken mehrere N-Ringe zu immer größeren Netzen mit vielen Maschen. Dabei bildet das Netz eine Hohlkugel mit Neutronen n auf der Innenseite. Alle Protonen p, die zu keiner Brücke gehören, zeigen dabei nach außen zum elektromagnetischen Feld hin. Hier zeigt sich wieder das für das Wirbelprinzip typische leere Zentrum. Dabei besitzen nicht nur die Schalen selbst jeweils ein leeres Inneres, sondern bei größeren Atomkernen auch die gesamte Struktur.

 

Abbildung 2.5:4; P-Brücke bei einem N-Ring

 

 

Mit dem vorgestellten Aufbauprinzip lässt sich die Struktur aller Atomkerne herleiten. Von den kleinsten Kernen in Abbildung 2.5:1 an gibt es zunächst bis zum Beryllium 4Be9 PN-Ringe. Dann gibt es bis zum Element Neon 10Ne22 je nach Anzahl der Neutronen in den Isotopen N-Ringe oder PN-Ringe. Ab dem Element Natrium 11Na23 bis zum Element Scandium 21Sc45 gibt es P-Ringe mit oder ohne N-Brücken. Mit dem Element Titan 22Ti46 beginnen dann Netze aus P-Ringen mit N-Brücken.

Die Abbildungen 2.5:5 und 2.5:6 zeigen alle stabilen Atomkerne von Helium 2He4 bis Aluminium 13Al27 in einer stark vereinfachten Strich-Punkt-Darstellung. Darin stehen entsprechend der vorstehenden Zeichnungen ein Punkt für ein Neutron und ein Strich für ein Proton. In einem PN-Ring wechseln sich also Punkte und Striche ab, und in einem N-Ring zeigen jeweils Striche von kreisförmig angeordneten Punkten nach außen.

 

Abbildung 2.5:5; Kernstruktur: 2He4 bis 9F19

 

 

Abbildung 2.5:6; Kernstruktur: 10Ne20 bis 13Al27

  

 

 

Die gezeigten Strukturen sollten ausreichen, um das Aufbauprinzip zu verstehen. Bei den schweren Elementen geht es nach dem gleichen Schema weiter, bis ab dem Element Titan 22Ti46 Netze gebildet werden. Die Netze gibt es dann bis hin zu den schwersten radioaktiven Elementen wie Uran oder Plutonium.

Neben den bereits in Kapitel 2.2.2 zur Kernfusion mit Neutronen-Anlagerung angesprochenen Unregelmäßigkeiten bei Helium, Lithium und Beryllium, bei denen zwei Neutronen angelagert werden müssen, fällt vor allem auf, dass es ab dem Element Fluor 9F19 bei ungerader Ordnungszahl Z immer nur ein stabiles Isotop mit gerader Massenzahl A gibt. Dabei ist die Anzahl der Neutronen immer um eins größer als die der Protonen. Dieses Schema setzt sich bis hin zu den schwersten Elementen fort. Nur gelegentlich gibt es dabei ein weiteres stabiles Isotop, dessen Massenzahl A dann um zwei größer ist.

Diese Eigenart lässt sich mit Hilfe der Quark-Schalen nur erklären, wenn man die Strukturen genauer betrachtet. Bei der in den Abbildungen gezeigten Darstellung in der Ebene erkennt man nicht, dass bei gerader Anzahl der Neutronen immer abwechselnd ein Neutron nach oben und eins nach unten aus der Zeichenebene heraus versetzt ist. So rücken die Neutronen dichter zusammen und bilden einen erheblich kompakteren Ring als bei ungerader Anzahl Neutronen, bei der sie sich in einer Ebene anordnen.

Ein kompakterer Ring besitzt eine geringere Bindungsenergie und kann daher leichter entstehen. Deshalb gibt es bei gerader Ordnungszahl Z in der Regel mehrere stabile Isotope mit aufeinander folgender Massenzahl A. Bei ungerader Ordnungszahl Z sind es nur die beschriebenen ein oder zwei Isotope mit einem oder drei zusätzlichen Neutronen.

 

Im Diagramm 2.5:1 sind die bei Versuchen gemessenen Bindungsenergien E der Elemente Wasserstoff 1H1 bis Phosphor 15P31 mit einer durchgezogenen Linie aufgetragen. Nach der Relativitätstheorie entspricht die Bindungsenergie dem Massendefekt, also der Differenz der gemessenen Masse des Atomkerns von der jeweiligen ganzzahligen Massenzahl A. Für vergleichbare Werte wird jeweils die gemessene Masse durch die Massenzahl A dividiert.

Dabei ergibt sich für das Element Kohlenstoff 6C12 exakt der Wert eins als Bezugspunkt. Für das Verhalten der Elemente ist nicht der absolute Wert der Masse oder Energie maßgebend, sondern nur die jeweilige Differenz. Daher gibt es hier keine Umrechnung in eine Einheit der Energie. Mit der gestrichelten Linie sind zur besseren Erkennbarkeit die Bindungsenergien E der Elemente Kohlenstoff 6C12 bis Phosphor 15P31 noch einmal in einen größeren Maßstab entsprechend der Skala auf der rechten Seite dargestellt.

 

Diagramm 2.5:1; Bindungsenergien von 1H1 bis 15P31

  

Bei den einfachen N-Ringen des 6C12, 7N14, 8O16, 10Ne20, 12Mg24 und 14Si28 erkennt man jeweils einen Sprung nach unten, was eine kompaktere Struktur der Ringe bestätigt. Beim Bor ist jedoch der PN-Ring des 5B11 kompakter aufgebaut als der N-Ring des 5B10. Besonders ausgeprägt ist der Sprung nach unten beim Helium 2He4. Der kleinste PN-Ring des 2He4 besitzt gegenüber den kleineren Kernen eine erheblich geringere Bindungsenergie, sodass hier mit Abstand die meiste Energie bei der Kernfusion frei wird.

Bei den zweifachen P-Ringen mit ungerader Ordnungszahl von 9F19 bis 15P31 ist die Bindungsenergie jeweils etwa gleich groß wie beim vorherigen Element. Hier muss man jedoch beachten, dass zunächst durch Anlagerung eines Neutrons ein instabiles Element mit größerer Bindungseinenergie entsteht, das dann als Beta-Minus-Strahler zerfällt.

 

Der große Energiegewinn beim Übergang vom Wasserstoff zum Helium ergibt sich vor allem aus den kleinen Massenzahlen A der Wasserstoff-Isotope. Betrachtet man lediglich den Massendefekt, müsste vom Wasserstoff 1H1 zum Deuterium 1H2 und zum Helium 2He3 Energie zugeführt werden. Für ein Helium 2He3 müssen aber zwei Protonen des Wasserstoffs 1H1 mittels Elektronen-Einfang in Neutronen umgewandelt werden und sich an ein weiteres Proton anlagern.

Daher stimmt die Energiebilanz nur, wenn man jeweils die gemessene Masse mit dem Massendefekt durch die Massenzahl A dividiert. Mit zunehmender Massenzahl A wird dabei der Einfluss des Unterschiedes in der Masse auf die Bindungsenergie immer kleiner.

 

Für den Ablauf der Kernfusion ergibt sich, dass für die Anlagerung zusätzlicher Neutronen bei gleich bleibender Ordnungszahl immer wieder Energie zugeführt werden muss. Diese Energie stammt aus der Bewegung oder Temperatur im Potentialwirbel. Die Linie für die Bindungsenergie führt dann nach oben. Besonders vom Helium 2He4 zum Lithium 3Li6 muss eine größere Menge Energie zugeführt werden.

Das fällt mit der in Kapitel 2.2.2 beschriebenen notwendigen Anlagerung zweier Neutronen wegen fehlender Isotope zusammen. Da vom Wasserstoff zum Helium aber sehr viel Energie frei wird, wird dabei die Fusion trotzdem nicht stark gebremst. Bei den schwereren Elementen sind die Sprünge nach oben bei der Energie erheblich kleiner, sodass kaum ein Einfluss auf den Ablauf der Kernfusion zu erwarten ist.

 

Abschließend zeige ich in diesem Kapitel noch kurz, wie die Materie in einem Neutronenstern mit den Quark-Schalen aufgebaut sein muss. Auf die Häufigkeit der verschiedenen Isotope und andere Zusammenhänge, die sich mit dem gezeigten Aufbau der Atomkerne erklären lassen, gehe ich nicht näher ein.

Im Gegensatz zu der vierfachen Systematik bei den Atomkernen ist die Materie in einem Neutronenstern sehr einfach aufgebaut. Wenn eine Up-Quark-Schale mit jeweils vier weiteren verbunden ist, und sich in jeder Verbindung ein Down-Quark befindet, kann sich diese Struktur in der Ebene zu allen Seiten hin unbegrenzt ausdehnen.

Diese Struktur ist in Abbildung 2.5:7 gezeigt. Als allseitig unbegrenzte Fläche kann sie wie die Netz-Struktur der großen Atomkerne die Oberfläche einer Hohlkugel bilden. Dann steht jedes Neutron, das sich im bosonischen Mischzustand mit seinem Antiteilchen befindet, direkt mit dem umgebenden elektromagnetischen Feld in Verbindung.

 

Abbildung 2.5:7; Materie eines Neutronensterns

 

Für die allseitig leicht gekrümmte Oberfläche einer sehr großen Kugel sind lediglich immer wieder Übergänge in der Struktur zur Anpassung an die Krümmung notwendig. Für deren Struktur gibt es verschiedene Möglichkeiten, auf die hier nicht weiter eingegangen wird. Da Niemand in einen Neutronenstern hinein schauen oder darin etwas messen kann, erfahren wir im Gegensatz zu den Atomkernen nichts darüber, welche dieser Möglichkeiten zutreffen könnte.

Es macht also wenig Sinn, darüber zu spekulieren. Die Dichte der Up-Quarks u oder Anti-Up-Quarks u̅ ist bei der Neutronen-Materie erheblich größer als bei den gezeigten Strukturen der Atomkerne. Damit ergibt sich eine extrem kompakte Hohlkugel, deren Dichte um ein Vielfaches größer ist, als die eines Atomkerns

2.6 Der Aufbau der Elektronenschalen

Nach dem Zeitschalenmodell folgt der Aufbau der Elektronenschalen den gleichen Gesetzmäßigkeiten in den sechs Dimensionen der 'Raumzeit' wie der Aufbau der Atomkerne. Im Gegensatz zu den Atomkernen gibt es aber mit den Bohrschen Elektronenbahnen und dem Orbitalmodell geometrische und anschauliche Darstellungen der Elektronenhülle. Wenn man diese mit den Quark-Schalen der Atomkerne im vorstehenden Kapitel vergleicht, erkennt man sehr ähnliche Strukturen.

Die bekannten Strukturen in den Atomhüllen bestätigen damit den Aufbau der Atomkerne nach dem Zeitschalenmodell. Dabei ist der wesentliche Unterschied, dass sich die Elektronenschalen im Gegensatz zu den Quarks in den Atomkernen weit in den umgebenden Raum hinein ausbreiten können. So kann es dort, wo bei den Atomkernen nur zwei Schalen möglich sind, bei den Elektronen viele ineinander verschachtelte Schalen geben. Beim schwersten natürlich vorkommenden Element Uran umgeben so 92 Elektronenschalen den Atomkern.

 

Betrachten wir in Abbildung 2.6:1 als Beispiel die komplett ausgefüllten Bohrschen Elektronenbahnen der leichtesten Edelgase Helium He und Neon Ne, erkennen wir beim Helium He exakt den gleichen Aufbau der Schalen wie beim Wasserstoff-Kern. Dabei tritt der Atomkern an die Stelle des Down-Quarks, und die beiden Elektronenschalen der ersten Bohrschen Bahn treten an die Stelle der beiden Up-Quarks. Beim Neon Ne zeigt sich wieder das gleiche Prinzip, nur dass nun in der zweiten Bohrschen Bahn acht Elektronen vorhanden sind.

Die in der Abbildung nach den Prinzipien des Zeitschalenmodells angeordneten Elektronenschalen sind exakt dort, wo sie nach dem Orbitalmodell auch sein müssen. Danach gibt es in der ersten Bohrschen Bahn nur das s-Orbital mit den Plätzen für zwei Elektronen.

Beim Neon Ne gibt es in der zweiten Bohrschen Bahn wieder ein s-Orbital mit zwei Elektronen um das s-Orbital der ersten Bahn herum. Dann gibt es das p-Orbital mit den Plätzen für weitere sechs Elektronen, die beim Neon Ne alle voll besetzt sind. Das s-Orbital ist für Helium He und Neon Ne jeweils gestrichelt eingezeichnet. Die Schalen des p-Orbitals sind mit durchgezogenen Linien dargestellt.

 

Abbildung 2.6:1; Elektronenschalen

 

Wie man es aus den Periodensystem der Elemente kennt, gibt es insgesamt maximal sieben Bohrsche Bahnen. Für größere Atome wird daher eine Darstellung wie in Abbildung 2.6:1 schnell unübersichtlich, sodass man schließlich kaum mehr etwas erkennen kann. Die Anzahl der Elektronen, die eine Bohrsche Bahn jeweils maximal aufnehmen kann, ergibt sich aus dem in Kapitel 2.2.3 bereits vorgestellten Pauli-Prinzip. Danach kann sich in einem Raum einer bestimmten Größe, dem so genannten Phasenraum, immer nur ein Fermion der gleichen Art befinden.

Bei der ersten Bohrschen Bahn ergibt sich so mit dem Abstand eins der Platz für zwei Elektronen. Mit dem Abstand zwei für die zweite Bahn ergibt sich die vierfache Oberfläche einer Kugel und damit der Platz für acht Elektronen (2 . 22 = 8). Auf der dritten Bahn finden entsprechend 18 (2 . 32) und auf der vierten Bahn 32 (2 . 42) Elektronen ihren Platz. Zu dem s-Orbital der ersten Bahn kommen dabei für jede weitere Bahn die Orbitale p, d und f mit Plätzen für 6, 10 und 14 Elektronen hinzu.

Wie in Abbildung 2.6:1 für das s-Orbital gezeigt, bilden dann auch die Orbitale p, d und f ineinander liegende Schalen. In Tabelle 2.6:1 sind für die Bohrschen Bahnen n die Anzahl der Elektronen insgesamt 2 . n2 und die Anzahl der Elektronen in den Orbitalen s, p, d und f aufgeführt.

 

Tabelle 2.6:1; Anzahl der Elektronen in den Bohrschen Bahnen

 

n

2 n²

s

p

d

f

 

 

 

 

 

 

1

2

2

 

 

 

2

8

2

6

 

 

3

18

2

6

10

 

4

32

2

6

10

14

  

Bei zwei und mehr Bohrschen Bahnen gibt es in der äußersten Bahn immer maximal acht Elektronen. Von außen nach innen gibt es dann das gleiche Schema wie es in Tabelle 2.6:1 von innen nach außen dargestellt ist. Wenn also alle sieben möglichen Bahnen vorhanden sind, können diese maximal 2, 8, 18, 32, 32, 18 und schließlich 8 Elektronen aufnehmen.

Wie vom Periodensystem der Elemente bekannt, wird bei einer hinzu kommenden Bohrschen Bahn immer zuerst nur das s-Orbital mit zwei Elektronen besetzt. Dann füllen sich - falls vorhanden - erst einmal die d- und f-Orbitale der inneren Bahnen auf, bevor die äußere Bahn zur Edelgas-Konfiguration mit acht Elektronen aufgefüllt wird.

 

Da es hier beim Zeitschalenmodell keinen Unterschied zur allgemein anerkannten Physik gibt, verweise ich für weitere Details auf das Periodensystem der Elemente und die Literatur zum Thema Atomphysik und Chemie. An dieser Stelle möchte ich nur zeigen, dass die geometrische Sichtweise des Zeitschalenmodells mit der Oberfläche einer Kugel und den jeweils ineinander liegenden Orbitalen zum gleichen Ergebnis führt, wie die allgemein anerkannte Betrachtung auf der Grundlage der Quantenmechanik.

Neben den Ähnlichkeiten bei den Orbitalen gemäß dem Periodensystem ähneln die Elektronenschalen chemischer Bindungen sehr der Verkettung der Quark-Schalen in den Atomkernen. Auch hier stehen wieder die Elektronen an der Stelle der Up-Quarks und die Atomkerne an der Stelle der Down-Quarks.

Analog zu den PN- und P-Ringen in den Kernen gibt es in der organischen Chemie Ketten und Ringe aus Kohlenstoff-Atomen. Als erstes Beispiel sind hierzu in Abbildung 2.6:2 die kovalenten oder homöopolaren Bindungen im Wasserstoff-Molekül H2 und im Methan-Molekül CH4 gezeigt.

 

Bei dieser Bindungsart teilen sich jeweils zwei Atomkerne zwei Elektronen, sodass sich für alle beteiligten Kerne die Edelgas-Konfiguration einstellt. Beim Wasserstoff-Molekül H2 teilen sich beide Atome ihr Elektron mit dem anderen, wobei eine Schale mit zwei Elektronen wie beim Edelgas Helium entsteht. Während der Aufbau aus Kernen und Elektronenschalen beim Helium-Atom an die Schalen eines Protons - zwei Up-Quarks und ein Down-Quark - erinnern, sind es beim Wasserstoff-Molekül H2 die Schalen eines Neutrons - ein Up-Quark und zwei Down-Quarks.

Kohlenstoff hat vier Elektronen in der äußeren Bohrschen Bahn. Mit den vier Elektronen der Wasserstoff-Atome ergeben sich beim Methan CH4 also acht Elektronenschalen wie beim Edelgas Neon. Für die vier beteiligten Wasserstoff-Atome sind es wieder die zwei Schalen des Edelgases Helium. Die Lage der s-Orbitale ist wieder mit gestrichelten Linien gekennzeichnet.

 

Abbildung 2.6:2; Kovalente Bindungen

 

Neben den gezeigten kovalenten oder homöopolaren Bindung gibt es auch heteropolare Bindungen oder Ionenbindungen. In diesem Fall gibt ein reaktionsfreudiges Atom wie beispielsweise Wasserstoff ein oder mehrere Elektronen an ein anderes Atom ab.

Als zweites Beispiel für chemische Bindungen ist in Abbildung 2.6:3 die Ionenbindung des Wasser-Moleküls gezeigt. Sauerstoff besitzt sechs Elektronen in der äußeren Bohrschen Bahn. Mit den zwei Elektronen der beiden Wasserstoff-Atome hat es also acht Elektronen wie das Edelgas Neon.

Die beiden Wasserstoff-Atome geben ihre Elektronen an den Sauerstoff ab. Sie werden also ionisiert. Beim Wasser-Molekül ist diese Ionisierung nicht vollständig. Die Bindung ist nicht dissoziiert. Dabei werden die beiden Elektronen nicht ganz zum Sauerstoff hin gezogen.

Gemäß der Quantenmechanik gibt es noch eine kleine Wahrscheinlichkeit, dass man sie in der Nähe der Wasserstoff-Kerne antrifft. Deshalb sind in der Zeichnung auch die Linien für deren Schalen um die Wasserstoff-Kerne herum gezeichnet.

 

Abbildung 2.6:3; Nicht dissoziierte Ionenbindung

 

Da die Elektronen weitgehend zum Sauerstoff-Kern gezogen werden, bilden außen die beiden Wasserstoff-Kerne zwei positive Pole, und die Elektronenhülle um den Sauerstoff-Kern herum bildet mit zwei zusätzlichen Elektronen einen negativen Pol. Bei den acht Elektronenschalen für die Edelgas-Konfiguration können sich bei räumlicher Anordnung und allseitig gleichen Abständen zwei Schalen nicht genau gegenüber stehen. Es ergibt sich ein minimaler Winkel von ungefähr 100°.

In Abbildung 2.6:3 ist dieser Winkel in die Ebene übertragen dargestellt. Die beiden negativen und der positiven Pol erzeugen mit diesem Winkel ein Dipol. Wäre der innere Kern des gezeigten Wasser-Moleküls kein Sauerstoff-Kern, sondern ein Chlor-Kern, gäbe es nur einen der beiden Wasserstoff-Kerne, und die Ionisierung wäre erheblich stärker. Dann kann sich der Wasserstoff-Kern als positiv geladenes H+ -Ion von dem Chlor-Kern trennen, der damit zu einem negativ geladenen Cl- -Ion wird. Die Ionenbindung ist dann dissoziiert.

 

Wenn dieser Vorgang im Wasser - also in einer wässrigen Lösung - statt findet, lagern sich die beiden getrennten Ionen an den Dipolen der Wasser-Moleküle an. Dabei umgeben die Wasser-Moleküle die Ionen jeweils als Hydrat-Mantel wie eine Hülle. So sind die Ionen im Wasser frei beweglich und können leicht mit anderen im Wasser gelösten Ionen reagieren.

Bei dem hier gezeigten Beispiel entsteht aus Chlor und Wasserstoff stark ätzende Salzsäure HCl. Die Dipol-Wirkung und der Winkel im Wasser-Molekül H2O ermöglichen viele chemische Reaktionen, ohne die es auf der Erde kein Leben geben würde. Mit der gezeigten Struktur der Orbitale beim Methan CH4 entstehen alle Molekülketten des Kohlenstoffs und damit auch alle Bausteine des Lebens.

 

Sowohl die Atomkerne als auch die Moleküle der organischen Chemie, aus denen alle Lebewesen bestehen, sind aus Ketten und Ringen aufgebaut. Es zeigt sich damit im Großen wie im Kleinen das gleiche Prinzip. Wenn also, wie ich es in Kapitel 2.1 zum Thema Resonanz beschrieben habe, das Leben mit einer Evolution entsteht, ist es doch sehr wahrscheinlich, dass auch der Aufbau der Atomkerne und damit die Struktur der Materie aus einem der Evolution entsprechenden Prinzip hervor gegangen ist.

Ein gleiches Prinzip lässt immer auch gleiche Muster entstehen. Damit deutet das gleiche Aufbauprinzip der Atomkerne und der Elektronenhüllen sehr darauf hin, dass sich das Universum nach dem Prinzip einer Evolution aus einem Urzustand heraus entwickelt hat, und nicht das Ergebnis irgendwelcher Anfangsbedingungen ist, die es in einer Ur-Materie kurz nach Urknall gegeben haben soll.

 

Weitere Details zu dem hier kurz angesprochenen Thema würden mindestens ein weiteres Buch füllen. Der Aufbau der Elektronenhüllen führt zur organischen Chemie, und diese dann wieder zu Themen wie Biologie, Medizin, Pharmazie und vielem anderen. Das ist sicherlich wieder ein gutes Beispiel dafür, wie bei einer ganzheitlichen Betrachtung immer irgendwie alles mit allem zusammen hängt, es zeigt aber auch, dass man sich mit der Fülle der Themen völlig verzetteln kann, bis am Ende niemand mehr etwas versteht.

Das Thema dieses Buches ist Paraphysik und nicht Chemie, Biologie, Medizin oder Pharmazie. Deshalb bleibt es an dieser Stelle bei dem kurzen und knappen Blick hinüber in die Welt der Chemie.

3. Mögliche technische Umsetzungen

In den nachfolgenden Kapiteln geht es um technische Umsetzungen der gezeigten paraphysikalischen Ansätze. Es hat dazu bereits einige Versuche und sogar funktionsfähige Apparaturen gegeben, wie die in Kapitel 2.1 bereits angesprochene drahtlose Energie-Übertragung nach Tesla. Ein immer wieder angesprochenes Thema ist dabei die so genannte 'freie Energie', die nach dem 'Prinzip der gegensätzlichen Pole' oder 'Prinzip der Nullsumme' des Zeitschalenmodells ständig überall im Universum verfügbar ist.

Es geht aber auch um eine Abschirmung der Gravitation, die mit einem Elektronen-Potentialwirbel nach dem Prinzip der Elektro-Gravitation möglich ist, und um die Kernfusion mit Elektronen-Einfang und Neutronen-Anlagerung. Mit einer Abschirmung der Gravitation wäre ein sehr leistungsfähiger Antrieb für interstellare Raumschiffe möglich. Daher werden auch die technischen und gesellschaftlichen Herausforderungen angesprochen, die mit einer interstellaren Raumfahrt zusammen hängen.

3.1 Drahtlose Energie-Übertragung

Als erstes geht es zum Thema technische Umsetzungen um Versuche, den ich zur drahtlosen Ene

Als erstes geht es zum Thema technische Umsetzungen um Versuche, den ich zur drahtlosen Energie-Übertragung nach Tesla durchgeführt habe. Zur Erklärung des Prinzips der Resonanz habe ich Kapitel 2.1 bereits beschrieben, wie es Tesla gelang, große Energiemengen über große Entfernungen zu übertragen.

Einen Aspekt habe ich dabei allerdings nicht erwähnt. Mit seinen Apparaturen zur Energie-Übertragung soll Tesla bei bestimmten Frequenzen eine rätselhafte Verstärkung der Energie festgestellt haben. Die empfangene Energiemenge war erheblich größer als die Ausgesendete. Tesla sprach dabei von einer 'irdischen Resonanz' mit der er auf der Erde vorhandene 'freie Energie' empfangen konnte.

Versuche zu Teslas drahtloser Energie-Übertragung oder zum Auffinden der rätselhaften 'irdischen Resonanz', wie sie gelegentlich in Büchern beschrieben werden, fallen in der Regel mehr als nur bescheiden aus und spiegeln praktisch nichts von dem wieder, was Tesla damals bei seinen Versuchen entdeckt haben soll.

Das hat vor allem einen Grund: Man kann heute nicht mit beliebigen Frequenzen und hoher Intensität Energie abstrahlen, ohne den Funkverkehr massiv zu stören. Solche Probleme kannte Tesla nicht. Als er seine Experimente durchführte, gab es noch keinen Funk.

 

Dass übliche Experimente mit Leistungen in Spielzeug-Größenordnung zu keinen verwertbaren Ergebnissen führen, ist hinreichend bekannt. Also suchte ich ein Weg, die Leistung erheblich zu steigern, ohne den Funkverkehr stark zu stören. Als erster Ansatz sollte dazu die Leistung von bisher maximal etwa 20 W so weit gesteigert werden, wie das mit den Möglichkeiten eines Amateurs gerade noch zu bewältigen war.

Bei hohen Leistungen würden teure Schalteinrichtungen und sonstige Apparaturen notwendig, die nur mit einem zahlungskräftigen Sponsor finanziert werden könnten. Die in Büchern beschriebenen Versuche zeigen zudem, dass in geschlossenen Räumen offensichtlich vollkommen andere Bedingungen herrschen als im Freien. Wenn man also zu wirklich neuen Erkenntnissen kommen will, muss man die Energie-Übertragung im Freien über größere Entfernungen testen.

 

Ein im Freien betriebener starker Sender mit der entsprechenden Frequenz kann aber in einem weiten Umkreis sämtlichen Funkverkehr komplett lahm legen. So etwas verursacht schrecklichen Ärger. Die einzige Möglichkeit, hier weiter zu kommen, ist also, eine so niedrige Frequenz zu wählen, dass der Abstand zu den Funkfrequenzen möglichst groß ist. Dann stört der Sender nichts Wichtiges und wird hoffentlich nicht bemerkt, wenn er immer wieder einmal kurz in Betrieb genommen wird.

Der Mittelwellenbereich der Radiosender beginnt bei etwa 500 kHz. Darunter liegt nur die lange Welle, die heute praktisch keine Verwendung mehr findet. Die Frequenz muss also deutlich unter 500 kHz liegen. Daher habe ich 150 kHz als Ausgangspunkt für meinen Versuch gewählt.

 

Wie bereits erwähnt, bestehen Sender und Empfänger aus Tesla-Transformatoren, die aus zwei umeinander herum angeordneten Tesla-Flachspulen bestehen. Nach der Zeichnung in Teslas Patentschrift wird der Sender direkt von einem Hochfrequenz-Generator gespeist. Abbildung 3.1:1 zeigt einen kleinen "klassisch" aufgebauten Tesla-Transformator mit Induktionsspule und Funkenstrecke, mit dem ich meine ersten Versuche durchgeführt habe.

Rechts befindet sich die Ansteuer-Elektronik, die mit 12 V Gleichstrom arbeitet, links daneben vorne der Primärkondensator mit Platten aus Alufolie und dicker Kunststoff-Folie als Dielektrikum, dahinter die Induktionsspule, die über Drosselspulen mit den Primärkreis verbunden ist, links davon die Funkenstrecke, und ganz links die Primär- und Sekundärspule des Tesla-Transformators als Zylinderspulen mit dem Kugelkondensator an der Spitze.

Mit der Funkenstrecke beträgt hier die Spannung im Primärkreis ca. 10.000 V, wobei eine Ausgangsspannung von etwa 200.000 V erreicht wird. So können bei einer recht geringen Leistung Funken oder Blitze mit etwa fünf Zentimetern Länge erzeugt werden.

 

Abbildung 3.1:1; Tesla-Transformator

 

 

In diesem Video ist der gezeigte Tesla-Transformator im Betrieb zu sehen:

https://youtu.be/UECVcSTQ9e0

 

Da zur Energie-Übertragung eine geringere Ausgangsspannung ausreicht, bietet sich zur Ansteuerung heute statt einer Funkenstrecke eine Halbleiter-Schaltung mit MOSFETs an. Preisgünstige MOSFETs, die große Ströme schalten können, sind für Spannungen bis etwa 200 V erhältlich. Bei einer frei schwingenden Ansteuerung der Primärspule muss damit die Eingangsspannung unter 100 V liegen.

Beim Empfänger bieten sich 220 V für den Sekundärkreis an. Dann können handelsübliche Glühlampen als Verbraucher verwendet werden. Die hohe Frequenz des Wechselstromes stellt bei der rein Ohmschen Last einer Glühlampe kein Problem dar.

Der Primärkreis eines Resonanz- oder Tesla-Transformators ist ein LC-Schwingkreis. Er besteht also aus der Primärspule und einem Kondensator. Um ihn zum Schwingen anzuregen, muss man ihn periodisch mit der Versorgungsspannung verbinden. Das geschieht am einfachsten mit einem einstellbaren elektronischen Oszillator, der auf die Resonanzfrequenz des Schwingkreises abgestimmt wird. Der Oszillator steuert dann einen MOSFET an, der die Versorgungsspannung des Schwingkreises im Takt der Resonanzfrequenz ein und ausschaltet.

 

Mehrere Berechnungen und einige praktische Versuche haben schließlich zu folgender Auslegung der Sekundärspule des Senders geführt:

 

Sekundärspule der Senders = Primärspule des Empfängers:

Drahtdicke (Kupfer-Lackdraht): 1 mm

Drahtlänge: 250 m

Innenradius: 4 cm

Länge der Flachspule: 9,5 cm

mittlerer Radius: 8,75 cm

Anzahl der Lagen: ca. 95

Anzahl der Windungen je Lage: 4,8 im Mittel

Anzahl der Windungen insgesamt: ca. 455

 

Der Aufbau der Spule ist in Abbildung 3.1:2 zu erkennen. Es wurden 16 mm Kunststoff-Kabelschutzrohre für die Elektro-Installation gewählt, die im Abstand von 3 cm durchbohrt wurden und von Kabelbindern zusammen gehalten werden. Der Spulenkern wurde aus einer 4,5 mm starken Kunststoffplatte gesägt und mit zwölf Löchern für die Kabelbinder versehen. Die Spule wurde jeweils bis zum nächsten Loch gewickelt.

Dann wurden die Kabelbinder angebracht, um ein Auseinanderbiegen des Spulenkörpers soweit wie möglich zu verhindern. Vor und nach dem Anbringen der zweiten äußeren Spule wurden jeweils kräftige Kabelbinder angebracht. Diese Spule ist keine echte Tesla-Flachspule, sondern lediglich eine sehr flache gewöhnliche Spule. Nur so ist es möglich, die vielen für die niedrige Frequenz benötigten Windungen bei einer praktikablen Größe unterzubringen.

 

Abbildung 3.1:2; Tesla-Energie-Sender und -Empfänger

[Foto, komplette Anlage zur Energie-Übertragung]

 

Mit 90 V für die Ansteuerung der Primärspule des Senders ergeben sich ca. 400 W Sendeleistung bei etwa 20.000 V im Sekundärkreis. Die äußeren Spulen wurden als echte Tesla-Flachspulen entsprechend der Berechnungen folgendermaßen ausgeführt:

 

Primärspule des Senders (für 90 V):

Zwei Windungen aus 10 mm2-Einzelader für die Elektro-Installation

Länge der Flachspule: 1,2 cm

mittlerer Radius: 14 cm

 

Sekundärspule des Empfängers (für 220 V):

Fünf Windungen aus 10 mm2-Einzelader für die Elektro-Installation

Länge der Flachspule: 3 cm

mittlerer Radius: 15 cm

 

Als Kugelkondensatoren der Antennen wurden Styroporkugeln für Deko-Zwecke mit 12 cm Durchmesser verwendet, die mit Alufolie umhüllt wurden.

Abbildung 3.1:2 zeigt den Sender und den Empfänger zur Energie-Übertragung mit der für 400 W Ausgangsleistung und 90 V im Primärkreis vorgesehenen Ansteuer-Schaltung.

 

Um mögliche Funkstörungen zu erkennen, ohne dabei möglicherweise den Funkverkehr massiv zu stören, wurde die erste Inbetriebnahme mit verminderter Leistung im Keller meines Hauses durchgeführt. Statt des vorgesehenen Netzteils mit 90 V Betriebsspannung wurde ein regelbarer Modellbahn-Trafo mit 6,5 bis 13 V und 30 VA verwendet. Die Wechselspannung wurde lediglich gleichgerichtet und mit einem Elko geglättet. Zur Ansteuerung wurde ein aus 5 V TTL-Bausteinen aufgebauter Rechteck-Oszillator verwendet.

Mit dieser Spannungsversorgung wurde am Empfänger eine 12 V 21W Kfz-Blinkerlampe hell zum Leuchten gebracht. Auf die Verwendung eines Kondensators im äußeren Schwingkreis konnte auf beiden Seiten verzichtet werden, da die Schwingung durch die starke Koppelung der beiden Tesla-Flachspulen auch ohne Kondensator zustande kommt. Dabei erhöht sich allerdings die Frequenz der Übertragung gegenüber der Berechnung um ca. ein Drittel. Bei diesem Testbetrieb wurden mit dem Oszilloskop folgende Werte gemessen:

 

max. Spitzenspannung an der Primärspule

des Senders: 15 V

max. Spitzenspannung an der Sekundärspule

des Empfängers: 11 V

Frequenz: 204 kHz

 

Daraus errechnen sich folgende Betriebsdaten:

Spannung an der Sekundärspule des Senders: 3.500 V

übertragene Leistung: 22 W

 

Bei dem Versuch wurde folgendes festgestellt: Die Übertragung der Energie funktioniert nur, wenn anstelle der Erdung gemäß Tesla eine Leitungsverbindung vorhanden ist. Wird eine Verbindung zum Schutzleiter des Stromnetzes hergestellt, bricht die Übertragung fast vollständig zusammen. Zudem verringert sich die übertragene Leistung erheblich, wenn die Leitung bei etwa 5 m Länge direkt auf dem gefliesten Kellerfußboden liegt. Bei etwa 20 cm Abstand zum Boden ist wieder die volle Leistung vorhanden.

Es ist also anzunehmen, dass die Übertragung nicht wirklich drahtlos erfolgt, sondern letztlich über diese eine Leitung. Um hier Aufschluss zu erhalten, wurden verschiedene Bauteile, die gerade zur Hand waren, in die Leitung eingesetzt und jeweils die maximale Spitzenspannung an der Primärspule des Senders und der Sekundärspule des Empfängers mit dem Oszilloskop gemessen. Alle Versuche wurden mit der Blinkerlampe als Last durchgeführt. Bei 11 V an der Primärspule des Senders wurden dabei an der Sekundärspule des Empfängers folgende Werte ermittelt:

 

direkte Verbindung: 8 V

Drosselspule*: 8 V

Kondensator 150 pF: 7 V

Widerstand 2,2 kΩ**: 7,5 V

Widerstand 10 kΩ***: 6 V

Widerstand 100 kΩ***: 0,5 V

Widerstand 22 MΩ: 0,01 V

 

* ca. 200 Windungen Kupfer-Lackdraht auf 5 mm Gewindestange aus Stahl

Drahtdicke 1 mm,

** Widerstand (1/4 W) wird warm,

*** Widerstand (1/4 W) wird sehr heiß und brennt durch.

 

Die Messungen bestätigen zunächst einmal, dass ein der übertragenen Leistung entsprechender Strom durch die Verbindungsleitung fließt. Seltsam erscheint allerdings der Leistungsverlust bei einer direkten oder auch nur indirekten, also induktiven oder kapazitiven, Verbindung zur Erde. Gemäß Tesla soll die Erde ja eine Verstärkung bewirken. Es zeigt sich aber genau das Gegenteil.

Eine mögliche Erklärung wäre, dass die Erde eine bestimmte Energiemenge benötigt, um in Resonanz zu geraten. Wird die Verbindungsleitung aber direkt mit der Erde verbunden, so steigt die Spannung im Sekundärkreis genauso stark an, wie beim Trennen der Verbindungsleitung.

Das wurde mit einem Tastkopf des Oszilloskops festgestellt, der mit einem festen Abstand zur Sekundärspule gewissermaßen als Antenne angebracht wurde. So kann man zwar die Spannung nicht direkt messen, aber doch die Größe einer Änderung feststellen. Es wird also keine Energie zur Erde hin abgeführt, sondern es ist offensichtlich nur durch eine Art Kurzschluss die Verbindung zwischen Sender und Empfänger gestört. Diese Feststellung lässt auf einen anderen Erklärungsansatz schließen.

 

Betrachtet man die Kugel-Antennen zusammen mit ihrer Umgebung als Kondensator, so stellt sich ein beliebiger geschlossener Raum als eine Art Faradayscher Käfig dar. Wie in Abb. 3.1:3 dargestellt, wirken die Kugel-Antennen dabei als die eine Platte eines Kondensators und der Wände des Raumes als die andere. Der Stromkreis führt also von der Antenne des Senders als Kondensator zu den Wänden und von dort ebenfalls als Kondensator zur Antenne des Empfängers.

Ein geschlossener Kreis entsteht schließlich über die Verbindungsleitung. Wird nun die Verbindungsleitung mit der Erde verbunden, entsteht ein Kurzschluss und es ist nur noch eine sehr schwache Übertragung direkt von der einen Kugel-Antenne zur anderen möglich. Da die Wände Sender und Empfänger vollständig umgeben, wird so der größte Teil der Energie über über den geschlossenen Raum als Kondensatorplatte kurzgeschlossen.

 

Abbildung 3.1:2; Tesla-Energie-Sender und -Empfänger

 

  

Da zur Energie-Übertragung eine geringere Ausgangsspannung ausreicht, bietet sich zur Ansteuerung heute statt einer Funkenstrecke eine Halbleiter-Schaltung mit MOSFETs an. Preisgünstige MOSFETs, die große Ströme schalten können, sind für Spannungen bis etwa 200 V erhältlich. Bei einer frei schwingenden Ansteuerung der Primärspule muss damit die Eingangsspannung unter 100 V liegen.

Beim Empfänger bieten sich 220 V für den Sekundärkreis an. Dann können handelsübliche Glühlampen als Verbraucher verwendet werden. Die hohe Frequenz des Wechselstromes stellt bei der rein Ohmschen Last einer Glühlampe kein Problem dar.

Der Primärkreis eines Resonanz- oder Tesla-Transformators ist ein LC-Schwingkreis. Er besteht also aus der Primärspule und einem Kondensator. Um ihn zum Schwingen anzuregen, muss man ihn periodisch mit der Versorgungsspannung verbinden. Das geschieht am einfachsten mit einem einstellbaren elektronischen Oszillator, der auf die Resonanzfrequenz des Schwingkreises abgestimmt wird. Der Oszillator steuert dann einen MOSFET an, der die Versorgungsspannung des Schwingkreises im Takt der Resonanzfrequenz ein und ausschaltet.

 

Mehrere Berechnungen und einige praktische Versuche haben schließlich zu folgender Auslegung der Sekundärspule des Senders geführt:

 

Sekundärspule der Senders = Primärspule des Empfängers:

Drahtdicke (Kupfer-Lackdraht): 1 mm

Drahtlänge: 250 m

Innenradius: 4 cm

Länge der Flachspule: 9,5 cm

mittlerer Radius: 8,75 cm

Anzahl der Lagen: ca. 95

Anzahl der Windungen je Lage: 4,8 im Mittel

Anzahl der Windungen insgesamt: ca. 455

 

Der Aufbau der Spule ist in Abbildung 3.1:2 zu erkennen. Es wurden 16 mm Kunststoff-Kabelschutzrohre für die Elektro-Installation gewählt, die im Abstand von 3 cm durchbohrt wurden und von Kabelbindern zusammen gehalten werden. Der Spulenkern wurde aus einer 4,5 mm starken Kunststoffplatte gesägt und mit zwölf Löchern für die Kabelbinder versehen. Die Spule wurde jeweils bis zum nächsten Loch gewickelt.

Dann wurden die Kabelbinder angebracht, um ein Auseinanderbiegen des Spulenkörpers soweit wie möglich zu verhindern. Vor und nach dem Anbringen der zweiten äußeren Spule wurden jeweils kräftige Kabelbinder angebracht. Diese Spule ist keine echte Tesla-Flachspule, sondern lediglich eine sehr flache gewöhnliche Spule. Nur so ist es möglich, die vielen für die niedrige Frequenz benötigten Windungen bei einer praktikablen Größe unterzubringen.

 

Abbildung 3.1:2; Tesla-Energie-Sender und -Empfänger

[Foto, komplette Anlage zur Energie-Übertragung]

 

Mit 90 V für die Ansteuerung der Primärspule des Senders ergeben sich ca. 400 W Sendeleistung bei etwa 20.000 V im Sekundärkreis. Die äußeren Spulen wurden als echte Tesla-Flachspulen entsprechend der Berechnungen folgendermaßen ausgeführt:

 

Primärspule des Senders (für 90 V):

Zwei Windungen aus 10 mm2-Einzelader für die Elektro-Installation

Länge der Flachspule: 1,2 cm

mittlerer Radius: 14 cm

 

Sekundärspule des Empfängers (für 220 V):

Fünf Windungen aus 10 mm2-Einzelader für die Elektro-Installation

Länge der Flachspule: 3 cm

mittlerer Radius: 15 cm

 

Als Kugelkondensatoren der Antennen wurden Styroporkugeln für Deko-Zwecke mit 12 cm Durchmesser verwendet, die mit Alufolie umhüllt wurden.

Abbildung 3.1:2 zeigt den Sender und den Empfänger zur Energie-Übertragung mit der für 400 W Ausgangsleistung und 90 V im Primärkreis vorgesehenen Ansteuer-Schaltung.

 

Um mögliche Funkstörungen zu erkennen, ohne dabei möglicherweise den Funkverkehr massiv zu stören, wurde die erste Inbetriebnahme mit verminderter Leistung im Keller meines Hauses durchgeführt. Statt des vorgesehenen Netzteils mit 90 V Betriebsspannung wurde ein regelbarer Modellbahn-Trafo mit 6,5 bis 13 V und 30 VA verwendet. Die Wechselspannung wurde lediglich gleichgerichtet und mit einem Elko geglättet. Zur Ansteuerung wurde ein aus 5 V TTL-Bausteinen aufgebauter Rechteck-Oszillator verwendet.

Mit dieser Spannungsversorgung wurde am Empfänger eine 12 V 21W Kfz-Blinkerlampe hell zum Leuchten gebracht. Auf die Verwendung eines Kondensators im äußeren Schwingkreis konnte auf beiden Seiten verzichtet werden, da die Schwingung durch die starke Koppelung der beiden Tesla-Flachspulen auch ohne Kondensator zustande kommt. Dabei erhöht sich allerdings die Frequenz der Übertragung gegenüber der Berechnung um ca. ein Drittel. Bei diesem Testbetrieb wurden mit dem Oszilloskop folgende Werte gemessen:

 

max. Spitzenspannung an der Primärspule

des Senders: 15 V

max. Spitzenspannung an der Sekundärspule

des Empfängers: 11 V

Frequenz: 204 kHz

 

Daraus errechnen sich folgende Betriebsdaten:

Spannung an der Sekundärspule des Senders: 3.500 V

übertragene Leistung: 22 W

 

Bei dem Versuch wurde folgendes festgestellt: Die Übertragung der Energie funktioniert nur, wenn anstelle der Erdung gemäß Tesla eine Leitungsverbindung vorhanden ist. Wird eine Verbindung zum Schutzleiter des Stromnetzes hergestellt, bricht die Übertragung fast vollständig zusammen. Zudem verringert sich die übertragene Leistung erheblich, wenn die Leitung bei etwa 5 m Länge direkt auf dem gefliesten Kellerfußboden liegt. Bei etwa 20 cm Abstand zum Boden ist wieder die volle Leistung vorhanden.

Es ist also anzunehmen, dass die Übertragung nicht wirklich drahtlos erfolgt, sondern letztlich über diese eine Leitung. Um hier Aufschluss zu erhalten, wurden verschiedene Bauteile, die gerade zur Hand waren, in die Leitung eingesetzt und jeweils die maximale Spitzenspannung an der Primärspule des Senders und der Sekundärspule des Empfängers mit dem Oszilloskop gemessen. Alle Versuche wurden mit der Blinkerlampe als Last durchgeführt. Bei 11 V an der Primärspule des Senders wurden dabei an der Sekundärspule des Empfängers folgende Werte ermittelt:

 

direkte Verbindung: 8 V

Drosselspule*: 8 V

Kondensator 150 pF: 7 V

Widerstand 2,2 kΩ**: 7,5 V

Widerstand 10 kΩ***: 6 V

Widerstand 100 kΩ***: 0,5 V

Widerstand 22 MΩ: 0,01 V

 

* ca. 200 Windungen Kupfer-Lackdraht auf 5 mm Gewindestange aus Stahl

Drahtdicke 1 mm,

** Widerstand (1/4 W) wird warm,

*** Widerstand (1/4 W) wird sehr heiß und brennt durch.

 

Die Messungen bestätigen zunächst einmal, dass ein der übertragenen Leistung entsprechender Strom durch die Verbindungsleitung fließt. Seltsam erscheint allerdings der Leistungsverlust bei einer direkten oder auch nur indirekten, also induktiven oder kapazitiven, Verbindung zur Erde. Gemäß Tesla soll die Erde ja eine Verstärkung bewirken. Es zeigt sich aber genau das Gegenteil.

Eine mögliche Erklärung wäre, dass die Erde eine bestimmte Energiemenge benötigt, um in Resonanz zu geraten. Wird die Verbindungsleitung aber direkt mit der Erde verbunden, so steigt die Spannung im Sekundärkreis genauso stark an, wie beim Trennen der Verbindungsleitung.

Das wurde mit einem Tastkopf des Oszilloskops festgestellt, der mit einem festen Abstand zur Sekundärspule gewissermaßen als Antenne angebracht wurde. So kann man zwar die Spannung nicht direkt messen, aber doch die Größe einer Änderung feststellen. Es wird also keine Energie zur Erde hin abgeführt, sondern es ist offensichtlich nur durch eine Art Kurzschluss die Verbindung zwischen Sender und Empfänger gestört. Diese Feststellung lässt auf einen anderen Erklärungsansatz schließen.

 

Betrachtet man die Kugel-Antennen zusammen mit ihrer Umgebung als Kondensator, so stellt sich ein beliebiger geschlossener Raum als eine Art Faradayscher Käfig dar. Wie in Abb. 3.1:3 dargestellt, wirken die Kugel-Antennen dabei als die eine Platte eines Kondensators und der Wände des Raumes als die andere. Der Stromkreis führt also von der Antenne des Senders als Kondensator zu den Wänden und von dort ebenfalls als Kondensator zur Antenne des Empfängers.

Ein geschlossener Kreis entsteht schließlich über die Verbindungsleitung. Wird nun die Verbindungsleitung mit der Erde verbunden, entsteht ein Kurzschluss und es ist nur noch eine sehr schwache Übertragung direkt von der einen Kugel-Antenne zur anderen möglich. Da die Wände Sender und Empfänger vollständig umgeben, wird so der größte Teil der Energie über über den geschlossenen Raum als Kondensatorplatte kurzgeschlossen.

 

Abbildung 3.1:3; Tesla Sender und Empfänger im geschlossenen Raum

 

 

 Um die dargestellten Zusammenhänge zu verstehen, muss man sich mit der Wirkungsweise eines Kondensators näher beschäftigen. Eine einzelne Metallkugel kann für sich alleine niemals als Kondensator wirken, da es dann nichts gibt, was die Ladungen auf ihrer Oberfläche hält.

Wenn sich diese Kugel also beispielsweise positiv auflädt, muss sich zwangsläufig irgendwo etwas negativ aufladen. Nur so entsteht eine anziehende Kraft zwischen den gegensätzlichen Ladungen, die eine Aufladung erst ermöglicht.

Eine entscheidende Erkenntnis aus dem Zeitschalenmodell ist, dass letztlich alle Atome im Universum über das elektromagnetische Feld in Verbindung stehen. So besitzt jeder Körper, gleichgültig wo er sich im Universum befindet, eine Wechselwirkung mit seiner gesamten Umgebung. Erst durch diese Wechselwirkung kann eine einzelne Kugel als Kondensator wirken.

Dabei bildet die Oberfläche der Kugel die eine Kondensatorplatte und die Umgebung die andere. Hier zeigt sich auch wieder das überall im Universum anzutreffende 'Prinzip der gegensätzlichen Pole', wie bei den Grenzen des Universums, Elementarladungen, Teilchen und Antiteilchen, Kraft und Gegenkraft und vielem mehr.

 

Wenn die vorstehenden Annahmen zutreffen, erfolgte bei der direkt am Boden verlegten Verbindungsleitung ein Energiefluss von der Leitung aus durch den Fußboden, die Wände und die Decke des Kellers. Die durchflossenen Medien waren also Keramikfliesen, Estrich, Beton, Putz, Mauerwerk und Holz. Wasser als leitendes Medium kann man weitestgehend ausschließen, da das Innere des Kellers vollständig trocken ist. Stahleinlagen im Beton, elektrische Leitungen und Wasserrohre aus Kupfer sind auf dem durchflossenen Weg nicht überall vorhanden.

Damit sind viele der beteiligten Materialien extrem schlechte elektrische Leiter. Trotzdem konnte ein großer Teil der übertragenen Energie durch sie hindurch abfließen. Das ist wiederum nur damit zu erklären, dass diese Materialien nicht als elektrischer Leiter sondern als Kondensator wirken.

Die Kapazität eines solchen Kondensators braucht nicht groß zu sein. Bei der verwendeten Frequenz sollte die Kapazität der Antenne, also etwa 7 pF, ausreichen, um die gesamte Energie kurzzuschließen.

 

Während bei den Kugel-Antennen die Anziehung der Ladungen im Kondensator zum größten Teil über das elektromagnetische Feld erfolgt, wirken bei dem Keller als Faradayscher Käfig die genannten Materialien ähnlich wie bei einem keramischen Kondensator als Dielektrikum.

Die Anziehung wird dabei jeweils von Atom zu Atom weitergegeben. In Abbildung 3.1:3 sind daher in den Wänden des Käfigs auch jeweils Kondensator-Symbole in den gestrichelten Fließweg der Energie eingezeichnet.

 

Wenn wir nun gedanklich mit unserer Sende und Empfangsanlage aus dem geschlossenen Keller hinaus gehen, erhalten wir eine andere Situation. Wie in Abb. 3.1:4 zu erkennen, ist die Oberfläche des kurzschließenden Faradayschen Käfigs nur noch am Boden vorhanden. Um jedoch direkt zwischen den Kugeln größere Energiemengen zu übertragen, müssten die Kugeln im Verhältnis zu ihrem gegenseitigen Abstand sehr weit vom Boden entfernt sein.

Dann wäre der Weg für den Kurzschluss zur Erde länger als derjenige für die Übertragung. Bei größeren Entfernungen kann man diese Bedingung nicht einhalten. Es muss also noch etwas anderes vorhanden sein, um eine Übertragung zu ermöglichen.

Aufschluss darüber kann eine Veröffentlichung von 1899 im Londoner 'Electrical Review' geben. Darin beschreibt Tesla, dass die Luft in einer Höhe von vier Meilen (etwa 6,5 km) für seine Experimente ausreichend leitfähig sei. In seiner Patentschrift vom 15.03.1900 erklärt er, dass die Übertragung durch die oberen Luftschichten der Stratosphäre erfolgt. Außerdem soll die Kugel-Antenne höher angebracht werden, als die höchsten Objekte in ihrer Umgebung.

 

Eine gute Leitfähigkeit der Luft in größerer Höhe wäre tatsächlich in der Lage, die fehlende Verbindung zwischen Sender und Empfänger herzustellen. Auch wenn Tesla später beschreibt, dass die Übertragung mit Hilfe einer 'irdischen Resonanz' durch die Erde erfolgt, muss die andere Möglichkeit ja nicht falsch sein.

Nach meiner Annahme erfolgt die Übertragung sowohl durch die Luft als auch durch die Erde. Eine Leitfähigkeit der Luft entsteht durch Ionisierung beim Eintreffen kosmischer Strahlung in der Ionosphäre, also in den oberen Luftschichten der Atmosphäre. Tatsächlich wird diese Ionisierung der Luft ab etwa einer Höhe von sechs bis sieben Kilometern immer stärker.

 

Abbildung 3.1:4; Tesla Sender und Empfänger im Freien

 

 

Beziehen wir die Ionosphäre in die Betrachtung mit ein, erhalten wir die in Abb. 3.1:4 dargestellte Situation. Neben dem Kurzschluss zur Erde gibt es nun eine Kapazitive Verbindung zwischen den Antennen durch die Ionosphäre hindurch. Die Ionosphäre stellt dabei eine ausreichend große Fläche dar, um über das elektromagnetische Feld zusammen mit den Kugel-Antennen jeweils einen Kondensator zu bilden.

Eine verlustarme Übertragung ist in diesem Fall nur dann möglich, wenn der Weg über die Ionosphäre einen geringeren Widerstand aufweist als der Kurzschluss zur Erde. Im Gegensatz zu den Molekülen in der Erde besitzen die positiv geladenen Ionen in der Luft der Ionosphäre eine große Beweglichkeit.

Durch die wechselnde Ladung in der Antenne des Senders werden sie zudem abwechselnd angezogen und abgestoßen und so zu einer Schwingung angeregt. Es handelt sich dabei um eine mechanische Schwingung der ionisierten Luftmoleküle. Das ist mit dem Funktionsprinzip eines Plasma-Hochton-Lautsprechers in der Hi-Fi-Technik vergleichbar.

 

Eine mechanische Schwingung der Luft ist letztlich nichts anderes als Schall. Bei der hier verwendeten Frequenz von etwa 200 kHz handelt es sich also um hochfrequenten Ultraschall. Wenn es zu einer Resonanz kommt, deren Schwingung sich wellenartig durch die Ionosphäre ausbreitet, sollte der Weg durch die Ionosphäre erheblich weniger Verluste aufweisen als der Kurzschluss zur Erde.

Die beiden Spulen sind nun jeweils mit der Erde als Kondensatorplatte verbunden, und die beiden Kugelantennen mit der Ionosphäre hoch in der Luft bilden die zweite Platte des Kondensators. Als Dielektrikum dient die Luft dazwischen. Damit ist eine plausible Erklärung für den Übertragungsweg durch die Atmosphäre gefunden.

 

Bevor nun die Anlage mit voller Leistung im Freien getestet werden konnte, mussten massive Störungen des Funkverkehrs unter allen erdenklichen Umständen ausgeschlossen werden. Ein erster Test hierzu wurde mit einem Kofferradio vorgenommen, das unmittelbar neben dem Tesla-Sender betrieben wurde. Dabei war über alle Frequenzbereiche hinweg ein lautes 50 Hz Netzbrummen zu hören. Im Kurzwellen-Bereich um die 8 MHz war dieses Brummen am stärksten.

Bei der Primärspule des Senders kam es beim Abschalten der MOSFETs zu einer Schwingung, deren Periode mit dem Oszilloskop mit etwa 125 ns gemessen wurde. 125 ns ergeben genau 8 MHz. Neben dieser Grundschwingung gab es dabei auch Oberwellen mit unterschiedlichen höheren Frequenzen. Damit war die Ursache für diese Störungen gefunden.

Diese Schwingungen überlagerten sich mit den vom Netzteil kommenden Spannungsschwankungen. So wurde der 50 Hz Brummton mit diesen 8 MHz und verschiedenen höheren Frequenzen der Oberwellen ausgesendet. Als Antenne diente dabei offensichtlich die Primärspule des Senders, da im ausgesendeten Signal mit dem Oszilloskop nur eine saubere Sinuskurve mit 204 kHz messbar war.

 

Als erster Versuch, die Funkstörungen zu reduzieren, wurden die Ansteuer-Schaltung und alle Spulen des Senders in Alufolie eingepackt. Der so entstehende Faradaysche Käfig sollte die störenden elektromagnetischen Wellen abschirmen. Diese Maßnahme war aber völlig wirkungslos.

Also wirkten nicht die Ansteuer-Schaltung oder die Spulen als Antenne, sondern der zur Übertragung verwendete Kugelkondensator. Trotzdem war eine aus dem Sekundärkreis stammende Schwingung mit etwa 8 MHz mit dem Oszilloskop nicht messbar. Wahrscheinlich waren die Störungen im Verhältnis zur übertragenen Leistung so schwach, dass die Dämpfung des als Antenne verwendeten Tastkopfes sie vollständig absorbierte.

 

In einem zweiten Schritt wurden alle erdenklichen Änderungen an der Ansteuer-Schaltung vorgenommen. Keine von ihnen konnte aber die Störungen ausreichend reduzieren. Die charakteristischen Schwingungen beim Abschalten der MOSFETs wurden nur dann schwächer, wenn man die zu schaltende Leistung erheblich verringerte. Also brummte das Radio weiter heftig im gesamten Kurzwellen- und UKW-Bereich.

So war ein Test im Freien zu riskant. Mit 400 W Sendeleistung hätte es heftige Störungen nicht nur im Radio oder Fernsehen, sondern auch im Flug-, Feuerwehr- und Polizeifunk gegeben. Dann hätte man sofort intensiv nach einem Störsender gesucht - vermutlich sogar mit einem Hubschrauber. Also hätte man mich mit meinem Sender schnell gefunden.

Mit der geringen Leistung wären zwar die Störungen ebenfalls geringer gewesen, dafür wäre die abgestrahlte Energie wohl kaum bei der ionisierten Luft in 6,5 km Höhe angekommen. Dafür lohnte es sich also erst recht nicht, das Risiko mit einem Störsender einzugehen.

 

Einzige Abhilfe wäre ein mechanischer Generator gewesen, der den benötigten hochfrequenten Wechselstrom mit 204 kHz als reine Sinuskurve ohne überlagerte Hochfrequenz direkt erzeugte. Für einen solchen Generator hätte man selbst bei einer hohen Drehzahl sehr viele kleine Spulen um einen mit Permanentmagneten bestückten Rotor herum anordnen müssen. Das wäre sehr aufwändig gewesen.

Die sonst bei einem Tesla-Transformator übliche Ansteuerung der Primärspule mit einer Funkenstrecke hätte noch heftigere störende Frequenzen erzeugt. Bei Teslas Versuchen um 1900 spielte das keine Rolle, da es damals noch keinen Funkverkehr gab.

Also brach ich die Versuche erst einmal ab und beschäftigte mich mit anderen Themen. Die waren dann schließlich interessanter als mehrere hundert gleiche kleine Spulen für einen solchen Generator anzufertigen. Das eintönige Wickeln der beiden großen Flachspulen mit je etwa 500 Windungen war mir nämlich schon genug auf die Nerven gegangen.

3.1.1 Teslas kostenlose Energie

Auch ohne den Versuch mit der drahtlosen Energie-Übertragung im Freien kommt man dem Rätsel der von Tesla entdeckten kostenlosen Energie gutes ein Stück näher. Wenn die Übertragung in der zuvor beschriebenen Weise funktioniert, gibt es bei der drahtlosen Übertragung von Energie eine zweifache Umsetzung der Energieform. Eine elektromagnetische Schwingung wird in Ultraschall umgewandelt und dann der Ultraschall wieder in eine elektromagnetische Schwingung.

Bei allen im Rahmen der Paraphysik untersuchten Maschinen zur Gewinnung 'freier Energie', von denen ich einige nachfolgend vorstellen werde, gibt es Umwandlungen der Energieform. Die hier beschriebene Übertragung durch die Stratosphäre ist ein Rückgekoppeltes System mit Erregung und Resonanz und mehrfacher Umsetzung der Energieform.

 

Bei allen bekannten Apparaturen, bei denen scheinbar aus dem Nichts Energie gewonnen wird, gibt es einen Widerspruch zum zweiten Hauptsatz der Thermodynamik. Nach diesem Satz kann niemals von selbst Wärme von einem Körper tieferer Temperatur (= geringere Energie) zu einem Körper höherer Temperatur (= größerer Energie) fließen. Wenn man diesen Grundsatz für alle Energieformen verallgemeinert, findet man Beispiele in der Mechanik und auch in der Elektrotechnik, die diesem Grundsatz widersprechen.

Es gibt also offensichtlich Energieformen, für die der zweite Hauptsatz der Thermodynamik gültig ist und solche, für die er nicht gültig ist. Thermische Energie ist eine ungerichtete Energieform. Sie zeigt sich als Schwingung bei der Braunschen Molekularbewegung in festen oder flüssigen Substanzen oder als schnelle und ungeordnete Bewegung der Moleküle durch den Raum in einem Gas.

Beiden genannten Bewegungsformen ist gemeinsam, dass sie keine resultierende Richtung besitzen. Kinetische Energie und Lageenergie sind dagegen gerichtete Energieformen. Ein Körper bewegt sich immer in eine bestimmte Richtung. Lageenergie ändert sich mit der Richtung, in der die Schwerkraft wirkt.

 

Will man also einem kälteren Körper Wärme entziehen und einem wärmeren Körper zuführen, so muss man die ungerichtete thermische Energie in eine gerichtete Energieform umwandeln, zum anderen Körper transportieren und dann wieder in thermische Energie zurück umwandeln. Das geschieht üblicherweise mittels einer Wärmepumpe, wobei man den Carnotschen Kreisprozess anwendet.

Dabei lässt man ein flüssiges Medium am kälteren Körper verdunsten. Es kühlt sich ab und entzieht so dem kälteren Körper Wärme. Dann verdichtet man das Medium und führt es dem wärmeren Körper zu. Dort kondensiert es und gibt die dem kälteren Körper entzogene Wärme wieder ab. Danach wird es wieder der Verdunstung zugeführt. Mit der dem kälteren Körper entzogene Wärme wird also der Aggregatzustand des Mediums von flüssig in gasförmig verwandelt.

Bei der umgekehrten Umwandlung des Aggregatzustandes von gasförmig in flüssig wird diese Wärme dann dem wärmeren Körper zugeführt. Aus thermischer Energie wird also Verdunstungsenergie, dann Kondensationsenergie und schließlich wieder thermische Energie.

 

Neben der Wärmepumpe gibt es noch andere Möglichkeiten, Wärme von einem kälteren zu einem wärmeren Körper zu transportieren. Es kann beispielsweise ein Peltier-Element verwendet werden, das diesen Wärmetransport elektrisch mit einem fließenden Strom erzeugt.

Es gibt auch rein mechanische Verfahren wie beispielsweise das Wirbelrohr, bei dem durch eine schnelle Rotation eines Luftstromes eine Aufteilung in warme und kalte Luft erfolgt. Allen Verfahren für einen solchen Wärmetransport ist gemeinsam, dass die thermische Energie dabei in eine andere gerichtete Energieform umgewandelt und nach dem Transport wieder in thermische Energie zurück umgewandelt wird.

 

Um mechanische Energie aus thermischer Energie zu gewinnen, kann man beispielsweise wie bei einer Dampfmaschine einfach den aus einer höheren Temperatur resultierenden Druck auf einen Kolben wirken lassen. Wenn dabei die Temperatur am Kolben auf die Temperatur der Umgebung absinkt, ist keine Kraft mehr vorhanden, die den Kolben antreibt. Es erfolgt ein Ausgleich der in der Temperatur enthaltenen Energie auf beiden Seiten der Kolbens.

Da mit der Abkühlung auf der einen Seite gleichzeitig eine Erwärmung auf der anderen Seite unter Einsatz der gleichen Energiemenge erfolgt, kann auf diese Weise theoretisch maximal die Hälfte der im wärmeren Medium enthaltenen Energie in mechanische Energie umgesetzt werden. Die übrige Energie entweicht als nicht nutzbare ungerichtete Wärme in die Umgebung.

Aufgrund technischer Gegebenheiten liegt der Wirkungsgrad einer Maschine, die nach diesem Prinzip arbeitet, in der Regel nur zwischen 30 und 40 Prozent. Zu solchen Maschinen zählen alle heute gebräuchlichen Wärmekraftmaschinen wie Dampfmaschinen, Dampf- und Gasturbinen sowie Otto- und Dieselmotore.

 

Die beschriebene Form der Energiegewinnung verhält sich also gemäß dem zweiten Hauptsatz der Thermodynamik. Es kann dabei keine Energie von einem Körper geringerer Temperatur zu einem Körper höherer Temperatur überführt werden. Bei der Umwandlung der thermischen in mechanische Energie wird dabei ausschließlich der Druck in einem heißen Gas ausgenutzt. Druck ist wie Temperatur ungerichtet.

Damit wird ausschließlich die Differenz der in den ungerichteten Bewegungen enthaltenen Energie in zwei Teilen der Maschine ausgenutzt. Da Druck und Temperatur über das Gasgesetz miteinander verknüpft sind, kommt es dabei immer zu dem beschriebenen Ausgleich der Temperaturen.

Es erfolgt also letztlich keine Umwandlung von ungerichteter in gerichtete Energie, sondern es wird lediglich eine Differenz bei der ungerichteten Energie ausgenutzt. Damit zeigt sich ein grundlegender Unterschied zur Wirkungsweise einer Wärmepumpe.

 

Bei ungerichteter thermischer Energie bewegt sich jedes Molekül in eine andere Richtung. Die Summe dieser Bewegungsrichtungen addiert sich bei einem beliebigen makroskopischen Körper immer zu null. Wenn man also einem solchen Körper als Ganzes Energie in Form von Druck oder Wärme entnimmt, wird diese ungerichtete Energie nicht in eine bestimmte Richtung gebracht.

Erst molekulare Vorgänge wie Verdunstung und Kondensation, wie sie beispielsweise bei einer Wärmepumpe ausgenutzt werden, sind dazu in der Lage. Damit ist der zweite Hauptsatz der Thermodynamik nur dann gültig, wenn man Körper betrachtet, die aus vielen Molekülen zusammengesetzt sind. betrachtet man dagegen ein einzelnes Molekül, so ist Wärme mit gerichteter kinetischer Energie gleichzusetzen und dieser Satz ist nicht mehr gültig.

 

Bei der Verdunstung wird die in den temperaturbedingten Braunschen Molekularbewegungen enthaltene Energie zur Überwindung der Bindungskräfte zwischen den Molekülen einer Flüssigkeit genutzt. Damit lösen sich diese Moleküle aus dem Gefüge der Flüssigkeit und bewegen sich dann als freie Gasteilchen durch den Raum. Dabei erhält die ungerichtete thermische Energie eine Richtung aus der Flüssigkeit hinaus in die Gasphase. Kondensation ist der umgekehrte Vorgang.

Die in der schnellen Bewegung der Gasmoleküle bei hohem Druck und hoher Temperatur enthaltene ungerichtete Energie wird nun zum Erzeugen der Bindungskräfte innerhalb der Flüssigkeit verwendet. Dabei entsteht eine Richtung der Energie von der Gasphase in die Flüssigkeit.

 

Da bei einer Wärmepumpe Energie zum Verdichten des Mediums benötigt wird, übersieht man oft, dass der zweite Hauptsatz der Thermodynamik in der hier verwendeten Formulierung nicht anwendbar ist. Die für die Verdichtung erforderliche Energie beträgt nur etwa 30% der übertragenen Wärmeenergie.

Damit liegt der Wirkungsgrad einer Wärmepumpe bei etwa 70%. Das ist deutlich mehr als die 50%, die nach den Prinzip des Wärmeausgleichs theoretisch maximal möglich sind. Trotzdem ist eine Wärmepumpe mit 70% Wirkungsgrad noch weit von einem perpetuum Mobile entfernt, dessen Wirkungsgrad größer als 100% sein müsste.

 

Aus den vorstehenden Betrachtungen folgt also, dass man prinzipiell mit einer geeigneten Apparatur Energie aus der Abkühlung eines Körpers gewinnen kann, der nicht wärmer ist als seine Umgebung. Würde man jedoch mit der Wärme, die mit einer Wärmepumpe übertragen wurde, mittels einer konventionellen Wärmekraftmaschine wiederum die Wärmepumpe antreiben wollen, so würde das nicht funktionieren.

Das liegt an dem schlechten Wirkungsgrad einer solchen Wärmekraftmaschine und ist nicht, wie allgemein angenommen, im zweiten Hauptsatz der Thermodynamik begründet. Da man aber glaubt, auf diese Weise ein nicht funktionsfähiges perpetuum Mobile konstruieren zu wollen, werden entsprechende technische Möglichkeiten üblicherweise gar nicht erst weiter untersucht.

Es gibt aber immer wieder Tüftler und Erfinder, denen es gelingt, eine Apparatur herzustellen, die scheinbar aus dem Nichts Energie gewinnen kann. Das zeigt wiederum, dass die vorstehenden Betrachtungen offensichtlich richtig sind.

 

Bei der Erzeugung von Ultraschall-Schwingungen in den oberen Schichten der Atmosphäre bei der drahtlosen Übertragung von Energie haben wir es mit molekularen Vorgängen zu tun. Die Erregung der Schwingung erfolgt nicht mechanisch, sondern elektromagnetisch über die ionisierten Moleküle in der Luft.

Bei einer rein mechanischen Erregung wäre keine Wechselwirkung der Schwingung mit den temperaturbedingten Bewegungen der Luftmoleküle möglich. Die thermischen Bewegungen der Moleküle würden sich einfach unverändert mit der Schwingung überlagern. Durch die Erregung auf molekularer Ebene werden aber diejenigen Moleküle stärker zu einer Schwingung angeregt, deren thermische Bewegung bereits in Richtung der Schwingung erfolgt.

Damit wird es möglich, dass es bei einer entsprechenden Frequenz durch die thermische Bewegung der Luftmoleküle zu einer Verstärkung der Schwingung kommt. Die drahtlose Energieübertragung würde so den oberen Luftschichten der Atmosphäre Wärme entziehen, die dann am Empfänger als elektrische Energie zur Verfügung steht. Damit ist eine Erklärung für die von Tesla beschriebene geheimnisvolle Verstärkung gefunden, bei der mehr Energie empfangen als ausgesendet wird.

 

Bekanntlich ist es in den höheren Luftschichten sehr kalt. Es mag daher seltsam erscheinen, dass man aus sehr kalter Luft Energie gewinnen kann. Für unser Empfinden ist es sicherlich bei Temperaturen zwischen -50 und -100 °C extrem kalt. Absolut betrachtet sind das aber immer noch 173 bis 223 Kelvin. Das ist deutlich über dem absoluten Nullpunkt, sodass letztlich eine große Menge Energie in dieser Luft enthalten ist.

Diese Energie stammt von der Sonne und kann damit grundsätzlich als unerschöpflich und auch umweltfreundlich angesehen werden. Wenn man jedoch den oberen Luftschichten in großen Mengen Wärme entzieht, kann das unvorhersehbare Folgen auf das Wettergeschehen haben – sowohl positive als auch negative. Will man diese Energie also intensiv nutzen, so muss man erst einmal herausfinden, welche Konsequenzen damit verbunden sind.

Das Wettergeschehen ist so kompliziert, dass ohne entsprechende Versuche keine verlässlichen Voraussagen getroffen werden können. Hier mit irgendwelchen allgemeinen Annahmen herum rechnen zu wollen, wäre sicherlich nichts weiter als reine Spekulation. Auch wenn diese Energie also kostenlos zu bekommen wäre, hätte das im großen Maßstab sicherlich erhebliche Auswirkungen auf unsere Umwelt.

 

Nach meinen Versuchen im Keller und den Schlüssen, die ich daraus zog, war ich mir sehr sicher, dass die drahtlose Energie-Übertragung im Freien funktionieren würde. Eigentlich wollte ich mit meinen Versuchen vor allem etwas bezüglich Teslas kostenloser Energie heraus finden. Ein möglicher Zusammenhang zwischen Teslas 'irdischer Resonanz' und der Ionisierten Luft in der Stratosphäre war mir jedoch anfangs noch nicht bekannt.

Wie wahrscheinlich ist es aber, dass ich diese 'irdische Resonanz' mit meiner niedrigen Frequenz auch nur ansatzweise finde? Höchstwahrscheinlich liegt sie doch irgendwo in den vom Funk intensiv genutzten Frequenzbereichen.

Kurzwellen-Radiosender und Amateurfunk nutzen eine Reflektion der Funkwellen an der Ionosphäre, um ihre Sendungen um die ganze Erde herum zu schicken. Da ist es doch mehr als nur wahrscheinlich, dass diese 'irdische Resonanz' im Bereich der Kurzwelle - also um 5 bis 10 MHz herum - zu finden wäre.

Außerdem müsste meine Anlage mit ihrer niedrigen Frequenz bei einer Leistung in Megawatt-Größenordnung, wie sie Tesla damals plante, sehr große Abmessungen haben, was ebenfalls auf eine erheblich höhere Frequenz schließen lässt. Also war es letztlich nicht die befürchtete Eintönigkeit beim Wickeln der vielen kleinen Spulen, sondern vor allem die vorstehenden Erkenntnisse, die mich von einer Fortführung meiner Versuche abhielten.

 

Interessant ist, dass Tesla zu Beginn seiner Experimente um 1900 offensichtlich den Weg der Energie richtig erklärt, später aber im Zusammenhang mit seiner kostenlosen Energie nur noch von einer geheimnisvollen 'irdischen Resonanz' spricht. Als man Tesla die weiteren Mittel für eine drahtlose Energie-Übertragung verweigerte, verlor er wohl immer mehr den Glauben daran, dass er mit dieser Entdeckung die Welt positiv verändern könnte.

Also hielt er auch immer mehr von seinem Wissen zurück, damit sich niemand damit einfach so bereichern konnte. Mit der Nutzung seiner Entdeckung für Funk, Radio und Fernsehen ist das ja schließlich so geschehen. Wer jedenfalls irgendwo im Inneren der Erde nach einer elektromagnetischen Resonanz sucht, der wird dort wohl ewig suchen und nichts finden. Auch dieser Aspekt spricht sehr dafür, dass diese Resonanz nicht irgendwo in der Erde, sondern bei der ionisierten Luft in der Stratosphäre zu finden ist.

 

Als letztes möchte ich in diesem Kapitel eine Maschine erwähnen, die ihre Energie ebenfalls drahtlos aus ihrer Umgebung bezieht. Sie wurde in mehren Exemplaren verschiedener Größe von einer stark religiös geprägten Gemeinschaft in der Schweiz entwickelt und gebaut und 'Thestatika' genannt.

Diese Gemeinschaft behält alle Zusammenhänge über die Funktion dieser Maschine konsequent für sich. Bei einigen Vorführungen wurde aber gezeigt, dass sie in der Lage ist, scheinbar aus dem Nichts Energie zu gewinnen.

 

Die 'Thestatika' besteht aus verschiedenen Spulen und Kondensatoren und aus einem elektrostatisch betriebenen Rotor, der an eine Hochspannung erzeugende Influenzmaschine erinnert. Wie bei einem Tesla-Transformator gibt es also auch bei der 'Thestatika' einen oszillierenden Wechselstrom mit hoher Spannung. Dieser könnte theoretisch die ionisierten Luftmoleküle in der Stratosphäre in Schwingung versetzen und ihnen über das elektromagnetische Feld Energie entziehen.

Mit welcher Frequenz die 'Thestatika' arbeitet, ist nicht bekannt. In ihrem unteren Teil gibt es die "Influenzmaschine" und große Kondensatoren, die auf eine sehr niedrige Frequenz schließen lassen. Im oberen Teil gibt es dagegen kleine Spulen und kleine Kondensatoren, die mit einer relativ hohen Frequenz arbeiten könnten.

Es sind nur die "Influenzmaschine", die Spulen und die Kondensatoren auf der Vorderseite eines geschlossenen Gehäuses zu sehen. Wie das Ganze verschaltet ist und was sich sonst noch in dem Gehäuse befinden könnte, bleibt also unklar. Man kann daher nur vermuten, dass Teslas Energie-Übertragung und die 'Thestatika' ihre Energie aus der selben Quelle beziehen.

 

Da es bei der 'Thestatika' offensichtlich weder eine Funkenstrecke noch eine elektronische Halbleiter-Schaltung mit hoher Leistung gibt, kann man annehmen, dass sie deshalb auch den Funkverkehr nicht stört. Die Frequenz, mit der die Ionisierte Luft in der Stratosphäre zum Schwingen gebracht werden kann, müsste dann aber ähnlich niedrig sein, wie ich es anfangs bei meinem Versuch geplant habe.

Die 'Thestatika' könnte aber auch ihre Energie aus einer ganz anderen Quelle beziehen. Spontan fällt mir dazu die 50 Hz Netzfrequenz ein, die überall mit hoher Intensität von den vielen Überlandleitungen des Versorgungsnetzes abgestrahlt wird.

3.2 Die Tornadomaschine

Als nächstes Beispiel möchte ich nun eine Maschine beschreiben, die in den 1970er Jahren von dem Schweizer Hans Mazenauer gebaut und bei ihrem ersten Testlauf zerstört wurde. Diese Maschine saugte mit einem Rotor auf einer Seite Luft an und und stieß sie auf der anderen Seite wieder aus. Nachdem der Rotor mit einem Elektromotor in Drehung versetzt worden war, lief er von selbst weiter und drehte dann immer höher. Ein Versuch den Rotor abzubremsen scheiterte. Schließlich wurde er durch die immer größer werdenden Kräfte zerstört. Im Jahr 1996 stellte ein Mitarbeiter der Universität Zürich einen Nachbau dieser Maschine her, der aber nicht funktionierte.

Der Nachbau ist erheblich kleiner als Mazenauers Original. Als möglichen Grund dafür, dass er nicht funktionierte, wurde angeführt, dass es aufgrund der geringeren Größe einen zu großen Reibungswiderstand gab. Im Internet ist einiges zu Mazenauers Versuch und den Nachbau zu finden. Wenn es in der nachfolgenden Betrachtung Angaben zum Original oder diesem Nachbau gibt, so stammen auch sie aus dem Internet.

 

Diese Tornadomaschine ist besonders interessant, da sie offensichtlich so genannte 'freie Energie' auf eine sehr einfache Art nutzbar machen kann. Es gibt nur wenige Bauteile, die einfach zu beschaffen sind. Man erkennt sofort, dass diese Maschine das Wirbelprinzip nutzt. Mittels Schauberger-Spiralen wird eine Art künstlicher Tornado erzeugt, der die in der Luft enthaltene 'freie Energie' in eine Drehung des Rotors umsetzt. Nachfolgend wird daher mit den Methoden der Paraphysik untersucht, wie eine solche Maschine funktionieren kann, und wie ein neuer - hoffentlich funktionsfähiger - Nachbau aussehen könnte.

Einem Parawissenschaftler stellt sich bei der Tornadomaschine als erstes die Frage, wo die antreibende Energie her kommt. Nach dem Wirbelprinzip muss sie wie bei der Kernfusion im Elektronen-Potentialwirbel eines Sterns bei einer Verdichtung der Materie frei werden. Ein Gas wie Luft wird dichter, wenn die Temperatur kleiner wird.

Auch ein Tornado bezieht seine Energie aus einer Abkühlung der im Wirbel nach oben steigenden warmen Luft. Berechnet man jedoch eine Abkühlung beim Eintritt in einen Wirbel und eine entsprechende Erwärmung beim Austritt, ergibt sich mit den Formeln der klassischen Physik die gewonnene Energie exakt zu Null. Wo gibt es also etwas, dass in den Formeln nicht richtig oder vollständig enthalten ist?

 

Bei einer Berechnung ist zunächst der im Wirbel mit der Geschwindigkeit absinkende Druck nach Bernoulli zu bestimmen. Daraus ergibt sich die jeweilige Dichte als Folge einer adiabatischen Expansion. Die Temperatur lässt sich dann mit der allgemeinen Gasgleichung berechnen. Dabei ergibt sich erst einmal für die Ein- und Ausströmung ein exakt gleicher Verlauf in entgegengesetzter Richtung. Die Leistung der Maschine ergibt sich damit zu Null.

Bei den Berechnungen nach Bernoulli und der allgemeinen Gasgleichung gibt es keine Konstanten, die vielleicht nicht wirklich konstant sein könnten. Bei der adiabatischen Expansion beim Eintritt und Kompression beim Austritt gibt es jedoch den Adiabaten-Exponenten als von den Eigenschaften des Gases abhängige Konstante. Er könnte doch für die Ein- und Ausströmung unterschiedlich sein und dafür sorgen, dass im Wirbel die Dichte größer und die Temperatur kleiner wird.

Der Adiabaten-Exponent κ errechnet sich aus den Wärmekapazitäten des Gases für konstanten Druck cp und konstantes Volumen cV. Diese werden üblicherweise als unveränderlich angenommen. Betrachtet man jedoch die statistische Verteilung der Geschwindigkeiten in einem Gas nach Maxwell, zeigt sich, dass die Wärmekapazität bei konstantem Volumen cV um das dreifache größer werden kann, wenn die Geschwindigkeit des Gases in die Nähe der mittleren Geschwindigkeit der Moleküle bei ihrer Bewegung durch die Temperatur ansteigt.

 

Diese mittlere Molekülgeschwindigkeit beträgt etwa 500 m/s oder das Wurzel-zwei-fache der Schallgeschwindigkeit. Die Wärmekapazität cV ist dabei von der Anzahl der Freiheitsgrade für die Bewegung der Moleküle abhängig. Unterhalb der Schallgeschwindigkeit können sich die meisten Gasmoleküle in alle Richtungen bewegen. Es gibt also drei Freiheitsgrade entsprechend den drei Raumdimensionen. Nur sehr wenige Moleküle sind gemäß der statistischen Verteilung nach Maxwell so langsam, dass ihre Bewegungen eingeschränkt sind.

Erreicht der Wirbel aber die Molekülgeschwindigkeit, gibt es nur noch die Drehrichtung des Wirbels als einzigen Freiheitsgrad. Unterhalb der Schallgeschwindigkeit verändert sich daher der Adiabaten-Exponent κ nur sehr wenig - man kann ihn also in den meisten Fällen als konstant annehmen. In der Nähe der Molekülgeschwindigkeit steigt er dann aber steil bis auf den dreifachen Wert an. Die Diagramme 3.2:1 und 3.2:2 zeigen Druck, Dichte und Temperatur über die Geschwindigkeit aufgetragen als relative Größen für die Ein- und Ausströmung.

Der Wert Eins steht dabei jeweils für die Schallgeschwindigkeit (330 m/s), den Umgebungsdruck (105.000 Pa), die Dichte der umgebenden Luft (1,2 kg/m³) und die Temperatur der umgebenden Luft (290 K oder 17°C). Die Ausströmung ist für 1,3 (430 m/s) als maximale Geschwindigkeit am Auge des Wirbels dargestellt. Dabei ergeben sich Druck, Dichte und Temperatur nach der Ausströmung zu 1,0, 1,27 und 0,8 (105.000 Pa, 1,5 kg/m³ und 232 K oder -41°C). Die Temperatur am Auge des Wirbels beträgt dabei 0,3 (82 K oder -191°C).

 

Diagramm 3.2:1; Tornadomaschine, Zuströmung

 

Diagramm 3.2:2; Tornadomaschine, Ausströmung

  

Mit den beiden Diagrammen ist nun gezeigt, welcher physikalische Zusammenhang die für den Betrieb einer Tornadomaschine benötigte Energie ermöglicht. Bei hoher Geschwindigkeit und einer extremen Abkühlung werden die Wärmebewegungen der Luftmoleküle in die Drehbewegung des Wirbels umgewandelt. Wie bei Teslas kostenloser Energie beschrieben, wird also die ungerichtete Wärmeenergie direkt in gerichtete kinetische Energie umgewandelt.

Dabei ist die ausströmende Luft erheblich kälter und besitzt eine größere Dichte. Diese Verdichtung der Luft versetzt den Rotor in Drehung, da nach dem Impulssatz der Drehimpuls immer erhalten bleibt. Das funktioniert wie bei einer Eiskunstläuferin, die bei einer Pirouette ihre Arme an den Körper zieht. Nur in diesem Fall strömen die "Arme" als Luft auf der einen Seite ständig in den Wirbel hinein und auf der anderen Seite wieder hinaus. Deshalb muss auch der Durchmesser des Rotors am Eintritt größer sein als am Austritt.

Aus einer Abkühlung der Luft um fast 60°, wie in den Diagrammen gezeigt, errechnet sich bei einem Durchsatz von einem m³/s die theoretisch maximale Leistung der Tornadomaschine zu etwa 70 kW (spezifische Wärmekapazität der Luft = 1000 J/(kg K), Dichte = 1,2 kg/m³). Das ist weit mehr als genug, um Mazenauers Rotor in Drehung zu versetzen - auch dann, wenn die Reibungsverluste groß sind. Damit ist theoretisch nachgewiesen, dass eine solche Tornadomaschine funktionieren kann. Bei geringen Verlusten wäre theoretisch sogar ein geradezu gewaltiges Leistungspotential möglich.

 

Es drängt sich also geradezu auf, den Rotor noch einmal nachzubauen und neue Versuche durchzuführen. Warum scheiterte aber 1996 der Versuch mit dem Nachbau? War es - wie bereits angedeutet - lediglich eine zu große Reibung wegen der geringeren Größe, oder gibt es vielleicht noch andere Gründe?

Ein Nachbau aus Glasfaser-verstärktem Kunststoff - wie er 1996 ausgeführt wurde - bietet sich wegen des erheblich geringeren Gewichts, der einfacheren Bearbeitung und der erheblich geringeren Materialkosten geradezu an. Würde aber ein Kunststoff-Rotor wirklich funktionieren, wenn er die Größe des Originals hätte? Oder sollte es vielleicht doch besser wie beim Original wieder teures Messing sein, das tage- oder wochenlang geschliffen und poliert werden muss?

 

Im Inneren des Rotors muss die Schallgeschwindigkeit deutlich überschritten werden. Bei einer überschlägigen Berechnung gemäß dem allgemeinen Fließgesetz mit turbulenter Strömung wären die erwähnten ca. 70 kW zunächst einmal knapp ausreichend. Die Antriebskraft für den Rotor aus der Erhaltung des Drehimpulses ist aber eine Corioliskraft, die sich als Kreuzprodukt zweier Vektoren aus der Geschwindigkeit der Zuströmung und der Winkelgeschwindigkeit des Rotors errechnet. Mit ihr ergibt sich bei Mazenauers Anfangsdrehzahl um die 3000 /min eine sehr viel kleinere Leistung. Für die Verluste ist sie um Größenordnungen zu klein.

Bei Überschall ist unter normalen Bedingungen eine Strömung immer turbulent, und für die Wandreibung ist der Fall 'hydraulisch rau' maßgebend. Nimmt man jedoch den Fall 'hydraulisch glatt' an, ergibt sich ein ausreichend geringer Widerstand. Wie kann es also möglich sein, dass die Rauigkeit der Wände keinen oder nur einen sehr kleinen Einfluss auf die Verluste hat?

Mit der klassischen Physik kommt man hier nicht weiter. Betrachtet man aber einen Effekt, der bei einem schnell rotierenden Plasma auftritt, ist eine dem 'hydraulisch glatten' Fall sehr ähnliche Grenzschicht an den Wänden denkbar. In Kapitel 3.4 ist dieser Effekt bei Schaubergers 'Repulsine' und 'fliegenden Untertasse' eine wesentliche Voraussetzung für die Funktionsfähigkeit.

 

Der Übergang von einem schnell strömenden Gas in einem Rohr oder Kanal zu einem Plasma ist fließend. Bei sehr hoher Geschwindigkeit können einige der äußeren Elektronen aus den Gasmolekülen heraus gerissen werden. So wird das Gas teilweise ionisiert. Gemäß der Statistik nach Maxwell sollte es immer einige wenige Moleküle geben, die schnell genug dafür sind. Wenn dann die Wand wie eine Kondensatorplatte wirkt, kann durch die gegenseitige Abstoßung der negativen Ladungen bei den Elektronen eine Grenzschicht entstehen, auf der die Strömung an der rauen Oberfläche einer Wand entlang gleitet.

Als man bei Mazenauers Versuch den Rotor durch Ankoppeln des Motors abbremsen wollte, gab es durch eine Überspannung einen Stromausfall, und das Licht ging aus. Danach lief der Rotor in einem dunklen Raum weiter und zeigte angeblich um ihn herum ein so genanntes Elmslicht. Könnte diese Leuchterscheinung vielleicht von Elektronen verursacht worden sein, die bei einer Ionisierung der Luft entstanden waren? Angeblich roch es nach Ozon, was ebenfalls auf eine Ionisierung schließen lässt.

 

Eine Grenzschicht aus Elektronen, die für geringe Verluste an den Wänden sorgt, erscheint sicherlich plausibler als eine - in der Literatur häufig erwähnte - irgendwie geheimnisvolle Wirkung aufgrund der besonderen Geometrie der Schauberger-Spiralen. Sicherlich müssen die Spiralen in den natürlichen Verlauf der Strömung - so wie es Schauberger beschreibt - möglichst gut hinein passen. Dann kann die Strömung im Wirbel sogar laminar bleiben. Das hebt aber die Reibungsverluste an den Wänden nicht auf. Es sind schließlich recht enge Kanäle vorhanden, die mit sehr hoher Geschwindigkeit durchströmt werden.

Kleinste Unebenheiten in der Oberfläche der Wände, die man auch durch intensives Polieren nicht entfernen kann, ähneln in molekularer Größenordnung einer Mondlandschaft mit tiefen Rissen und Kratern. Ohne eine irgendwie glatte Grenzschicht zwischen Wand und strömender Luft kann es also nicht funktionieren. Bei seinen Versuchen mit den Spiralen erreichte Schauberger zudem die besten Ergebnisse mit Kupfer und Messing. Mit Kunststoff führte er keine Versuche durch, da dieser um 1930 gerade erst erfunden wurde. Außerdem kommt bei Schaubergers 'Repulsine' und 'fliegenden Untertasse' ebenfalls eine Grenzschicht aus Elektronen zur Anwendung.

 

Wenn also eine solche Grenzschicht für eine ausreichend geringe Reibung benötigt wird, ist Kunststoff genau der verkehrte Werkstoff. Das Harz im Kunststoff hält wie Bernstein bei einer elektrostatischen Aufladung die Elektronen auf der Oberfläche fest. Statt einer gleitenden entsteht so eine bremsende Grenzschicht.

Damit es elektrostatisch gleiten kann, muss ein guter elektrischer Leiter wie beispielsweise Mazenauers Messing eingesetzt werden. Dann können die Elektronen im Leitungsband des Metalls den außen entlang gleitenden Elektronen folgen, sodass keine bremsenden Kräfte entstehen. Für einen geringen Widerstand wären Silber oder Gold sicherlich optimal - aber viel zu teuer.

Für einen möglichen Nachbau bietet sich aber Aluminium als Werkstoff an. Weiches, wenig legiertes Aluminium, wie es in Baumärkten erhältlich ist, besitzt eine gute elektrische Leitfähigkeit und ist erheblich leichter als Messing - vor allem dann, wenn man dünne und entsprechend preiswerte Bleche verwendet. Zudem besitzt eloxiertes Aluminium eine sehr glatte Oberfläche. So beschränkt sich der Aufwand beim Schleifen und Polieren auf das Entfernen von Graten.

Für die nötige Festigkeit könnten dann Glas- oder Kohlefasern in Epoxidharz zum Einsatz kommen. So wird wieder Kunststoff verwendet, aber jetzt nur um das Metall herum für die Festigkeit. Duraluminium mit hoher Festigkeit, wie man es beispielsweise beim Flugzeugbau häufig verwendet, erscheint wegen der geringeren elektrischen Leitfähigkeit als eher ungeeignet.

 

Nun ist noch zu verstehen, wieso Mazenauers Rotor eine so hohe Drehzahl erreichen konnte, dass er zerstört wurde. Einen Hinweis liefert da bereits das gewaltige Leistungspotential, das theoretisch möglich ist. Eine einfache Nachrechnung ergibt, dass bei einer Anfangsdrehzahl von etwa 3.000 /min in der Mitte des Rotors bereits die Schallgeschwindigkeit überschritten werden kann.

Für die Molekülgeschwindigkeit werden dann entsprechend Wurzel zwei mal 3.000 /min, also etwa 4.200 /min benötigt. Wie konnte der Rotor aber dann weit über 10.000 /min erreichen? Mit der Corioliskraft ist, wie bereits erwähnt, bei um die 3000 oder 4000 /min nur ein sehr kleiner Anteil der theoretisch maximalen Leistung nutzbar.

Ohne Reibungsverluste gerechnet, wären für die bereits erwähnten 70 kW bei einem m³/s Zuströmung über 30.000 /min erforderlich. Der Lauf des Rotors mit sehr hohen Drehzahlen ist aber trotzdem erst dann zu verstehen, wenn man davon ausgeht, dass ein äußerer Tornado um die Maschine herum entsteht und der Rotor diesen dann so zu sagen mit sich mit nimmt.

Dann gibt es ohne Reibungsverluste keine Grenze mehr für die Drehzahl. Bei einer genaueren Berechnung ergibt sich der Durchsatz zu etwa drei kg/s und die theoretisch maximale Leistung ohne Verluste zu etwa 130 kW bei 10.000 /min. Im Leerlauf ohne Last könnten dann 20.000 /min oder noch mehr erreicht werden.

 

Solchen Drehzahlen war Mazenauers massiv gebauter Rotor nicht gewachsen. Schon alleine die für seine dicke Achse benötigten Wälzlager würden bei um die 20.000 /min heiß laufen und fest fressen. Dann würde die große Massenträgheit des Rotors alles auseinander reißen.

Bei 20.000 /min würde zudem eine geringe Unwucht sehr große Kräfte erzeugen. Außerdem gab es bei Mazenauer keine Möglichkeit, eine Leistung in der berechneten Größenordnung irgendwie aufzunehmen oder abzubremsen.

Bei einem möglichen Nachbau ist also von hohen Drehzahlen auszugehen. Ein mit Glas- oder Kohlefasern verstärkter Leichtbau aus relativ dünnen Aluminium-Blechen wäre da sicherlich vorteilhaft. Mit Verlusten kann man eine maximale Leistung von um die 50 kW bei etwa 10.000 /min annehmen.

Das erfordert eine sehr stabile Ausführung, eine exakte Auswuchtung und eine entsprechend dicke Achse. Dabei müssten wahrscheinlich Druck geschmierte Gleitlager verwendet werden, wie sie bei Turbinen oder modernen Verbrennungsmotoren zum Einsatz kommen. Das wäre aufwändig und teuer.

 

Auch eine bereits bei dem Versuch 1996 verwendete Einrichtung zum Regeln und Abstellen dürfte nicht fehlen, da bei geringen Verlusten sehr hohe Drehzahlen erreicht werden können. Mit einer solchen Einrichtung könnte man die Drehzahl immer im zulässigen Bereich halten.

Bei der zu erwartenden Leistung der Maschine ist ein Nachbau in der gleichen Größe wie Mazenauers Original mit den Mitteln eines in seiner Freizeit forschenden Amateurs sicherlich kaum zu realisieren. Verkleinert man die Abmessungen, ist damit zu rechnen, dass es wieder nicht funktioniert. Niemand weiß, bei welchen Abmessungen die Grenze liegt, bei der die Leistung größer wird als die Verluste.

Mit den üblichen Berechnungsansätzen ist nur eine grobe Abschätzung der Verluste möglich, da nicht bekannt ist, ob die laminare Strömung eines Potentialwirbels innerhalb der recht engen Schauberger-Spiralen zustande kommt, und wie groß dann ein turbulenter Anteil bei den Verlusten ist. Zudem wissen wir auch nichts über die Wirkung einer elektrostatischen Grenzschicht.

 

Da der Rotor einen äußeren Tornado um sich herum erzeugt, wären bei seiner Aufstellung ein paar Dinge zu beachten. Zunächst sollte die Maschine möglichst frei im Raum stehen. Es sollten sich auch keine Gegenstände im Raum befinden, die von einem starken Luftzug erfasst und umher geschleudert werden könnten. Wie bei einem echten Tornado sollte die warme Luft unten angesaugt und die kalte Luft nach oben geblasen werden. Dann kann sich die kalte Luft mit der unter der Decke aufgestauten warmen Raumluft vermischen und nach unten sinken, wo sie wieder vom Rotor angesaugt wird.

Würde die kalte Luft unten austreten, gäbe es einen Stau aus kalter Luft um die Maschine herum. Schließlich würde dann kalte Luft angesaugt, und die Leistung der Maschine würde stark nachlassen. Im Bereich des Unterdruckes am Boden kann sich ein Auge des äußeren Tornados ausbilden, das bis zum Boden reicht.

In einem Auge gibt es keine Strömung und damit auch keine Verluste. Das erhöht die mögliche Leistung der Maschine. Am Austritt entsteht mit der Strömung nach oben ein Trichterförmiges Auge, das bei einem recht niedrigen Raum bis zur Decke reichen kann. Abbildung 3.2:3 zeigt, wie eine senkrecht stehende Maschine mit einem äußeren Tornado zusammen wirkt.

 

Abbildung 3.2:3; Einbindung der Maschine in den äußeren Tornado

 

Nun möchte ich die Ergebnisse meiner Berechnungen kurz vorstellen. Das nachfolgende Diagramm 3.2:3 zeigt die Schauberger-Spiralen, wie sie gemäß der Berechnung ausgeführt werden könnten. Dabei stehen yK1* und yK2* für die auf den jeweiligen Umfang des Rotors bezogenen Spiralen der Luftkanäle und yS für die auf den Rotor bezogene Strömung.

Diagramm 3.2:4 zeigt die Abmessungen des Doppelkegels im Schnitt. Die Strichpunkt-Linie steht dabei für den Schwerpunkt der durchströmten Fläche, auf den sich meine Berechnungen beziehen. Die Abmessungen sind an Mazenauers Original angelehnt.

 

Diagramm 3.2:3; Die Schauberger-Spiralen der Tornadomaschine

 

Diagramm 3.2:4; Der Doppelkegel der Tornadomaschine

 

Abschließend sei zu der Tornadomaschine noch angemerkt, dass man bei dem 1996 durchgeführten Versuch durchaus geneigt sein könnte, an eine Verschwörung zu glauben. Die Möglichkeit einer elektrostatischen Grenzschicht sollte für einen Wissenschaftler nicht so abwegig sein, wie sie dem Laien vielleicht erscheinen mag.

Dass die Reibungsverluste bei 3000 /min Anfangsdrehzahl unter Berücksichtigung der Corioliskraft nur für den 'hydraulisch glatten' Fall mit einer elektrostatischen Grenzschicht klein genug sind, kann jeder nachrechnen, der sich schon einmal irgendwie mit Strömungslehre beschäftigt hat. Also ist die Wahl des Werkstoffes ein entscheidender Faktor. Dann nimmt man nicht einfach Kunststoff statt Metall.

Es sei denn, man möchte zeigen, dass ein solcher Rotor überhaupt nicht funktionieren kann - was natürlich ganz im Sinne der Energiekonzerne wäre. Bei den beiden - vor allem einem Laien - zunächst plausibel erscheinenden Änderungen hätte sich ein Wissenschaftler durchaus sehr sicher sein können, dass der nachgebaute Rotor NICHT funktionieren würde.

Der k-Wert für die Rauigkeit ist zwar für Messing und Kunststoff mit ca. 0,0015 mm etwa gleich groß, hat aber beim 'hydraulisch glatten' Fall gar keinen Einfluss. Ohne elektrostatische Grenzschicht wären jedenfalls nach meinen zunächst überschlägigen Berechnungen bei um die 3000 /min die Verluste um ein Vielfaches größer als die Leistung des Rotors. Ich denke, man kann durchaus annehmen, dass ein erfahrener Wissenschaftler in der Lage ist, so etwas abzuschätzen.

3.3 Schaubergers Repulsine

Die 'Repulsine' ist nur eine Variante einer Reihe von Versuchen, die Schauberger mit einem Spalt zwischen zwei sich schnell drehenden Scheiben durchführte. Die Reihe dieser Versuche begann mit dem 'Klimator', mit dem Luft je nach Betriebsweise abgekühlt oder erwärmt werden konnte.

Als nächstes folgte die 'Repulsine' zur Gewinnung von Energie aus Wasser. Als sich dann die 'Repulsine' während eines Testlaufes aus ihrer Verankerung im Boden löste und gegen das Dach der Halle schlug, entwickelte Schauberger daraus die 'fliegende Untertasse'. Die Erkenntnisse daraus brachte er dann in das bereits erwähnte geheime Projekt 'Glocke' der Nazis ein.

Ohne meine Erkenntnisse über den Elektronen-Potentialwirbel in den Sternen, über die Elektro-Gravitation und aus den Versuchen zur Tesla-Energie kann man mit den wenigen Skizzen zu den Versuchen und dem, was Schauberger geschrieben hat, die Funktion der genannten Geräte nicht erklären.

Erst wenn man die Möglichkeit betrachtet, dass man zwischen zwei sich schnell entgegengesetzt drehenden Scheiben einen Elektronen-Potentialwirbel im Bewegung setzen kann, zeigt sich eine mögliche Erklärung. Ausgangspunkt dazu ist zunächst einmal die Funktion einer Influenzmaschine oder Elektrisiermaschine.

 

Bei dieser Maschine ist zunächst unklar, wie es zwischen zwei Scheiben aus isolierendem Material mit Feldern aus Metall darauf zu einer Ladungstrennung kommt, die man mit Hilfe von Bürsten von den Scheiben abnehmen und extrem verstärken kann. Wenn man beginnt, an der Kurbel einer solchen Maschine zu drehen, ist nämlich zunächst einmal überhaupt keine Elektrizität vorhanden. Wie soll also dann eine Ladungstrennung zustande kommen?

Eine mögliche Erklärung ist, dass es durch die Wechselwirkung der Elektronen in den Luft-Molekülen mit den Metallplatten der Scheiben die Luft zwischen den Scheiben ionisiert wird. Dann gelangen die abgetrennten Elektronen in die Metallplatten und werden mit den Bürsten zu einem Kondensator transportiert. Mit zunehmender Aufladung des Kondensators kommt es dann zu einer Verschiebung der Ladungen in den Platten oder Influenz, die eine weitere Aufladung bewirkt.

 

Wenn also eine langsame Drehung mit einer Kurbel bereits zu einer schwachen Ionisierung der Luft führt, sollte man mit einer schnellen Drehung mit einem Motor als Antrieb zwischen den Scheiben ein Plasma erzeugen können. Stark vereinfacht dargestellt, kommt man dann zu der in Abbildung 3.3:1 gezeigten Situation.

Der in Kapitel 2.2.1 Abbildung 2.2.1:2 dargestellte Elektronen-Potentialwirbel in einem Stern befindet sich nun auf einige Millimeter oder noch enger zusammen gedrückt zwischen zwei sich schnell drehenden Scheiben. In der Abbildung ist der Abstand extrem vergrößert dargestellt, damit man den Wirbel darin erkennen kann.

 

Abbildung 3.3:1; Potentialwirbel zwischen sich drehenden Scheiben

  

Je kleiner der Innere Anteil des dreifachen Elektronen-Wirbels mit den Atomkernen darin ist, desto schneller kann er sich bei einer gegebenen Umfangsgeschwindigkeit der beiden Scheiben drehen. Wenn man also den Abstand zwischen den Scheiben nur klein genug und die Drehzahl groß genug macht, kann man ein vollständig ionisiertes Plasma erzeugen. Darin ist dann sogar theoretisch eine Kernfusion durch Elektronen-Einfang und Neutronen-Anlagerung möglich.

Wir sollten unsere Betrachtung aber zunächst einmal im Hinblick auf den 'Klimator' beginnen. Wie bei der Tornadomaschine beschrieben, wird eine Geschwindigkeit der Luft im Wirbel in der Größenordnung der Molekülgeschwindigkeit von etwa 500 m/s benötigt, um die in der Temperatur enthaltene Energie in mechanische oder kinetische Energie umzuwandeln. Die Differenz der Umfangsgeschwindigkeiten muss also mindestens etwa 500 m/s betragen. Bei einem Meter Durchmesser beträgt dann die Differenz der Drehzahlen ca. 10.000 /min (500 x 60 / π).

 

Würden sich nun beide Scheiben gleich schnell entgegengesetzt drehen, gäbe es ohne Fliehkraft keine Strömung zwischen den Scheiben hindurch. Will man also Luft abkühlen, muss sich eine der beiden Scheiben langsamer drehen. Aus dem Unterschied der Drehzahlen ergibt sich dann mit der Fliehkraft der Durchsatz und daraus wiederum die Intensität der Abkühlung.

Alternativ kann man auch eine der beiden Scheiben fest stehen lassen und die Scheiben kegelförmig ausführen. Dann kann man die Wirkung der Fliehkraft mit der Steigung des Kegels festlegen. Der Durchsatz und damit die Intensität der Abkühlung lässt sich dann mit dem Abstand zwischen den beiden kegelförmigen Scheiben einstellen. Diesen Weg wählte Schauberger bei seinem 'Klimator'.

 

Über den 'Klimator' ist nicht zweifelsfrei bekannt, ob sich damit wie bei einer Tornadomaschine Energie gewinnen lässt. Vermutlich sind bei dem kleinen Spalt zwischen den Scheiben die Verluste sehr groß. Schauberger erklärt dazu nur, dass man mit dem 'Klimator', in einer "Richtung" Kälte und in der anderen Wärme erzeugen kann.

In den meisten Beschreibungen oder Erklärungsversuchen zum 'Klimator' wird diese "Richtung" als Drehrichtung interpretiert. Da aber die Drehrichtung keinen Einfluss auf die Molekülgeschwindigkeit haben kann, gibt es hier offensichtlich ein Missverständnis. Wahrscheinlich ist mit der "Richtung" lediglich die Richtung bei der Änderung der Temperatur gemeint - also entweder in Richtung 'kalt' oder in Richtung 'warm'.

 

Wenn man bei einer Erhöhung der Drehzahl an die Molekülgeschwindigkeit heran kommt, gibt es eine immer stärkere Abkühlung. Erhöht man dann die Drehzahl weiter, wird die Abkühlung immer kleiner, bis man schließlich so viel Energie in den Wirbel einträgt, dass er sich wieder erwärmt. Folglich erzeugt ein 'Klimator' bei kleineren Drehzahlen Kälte und bei größeren Wärme. Bei der Abkühlung wird dabei wie bei einer Tornadomaschine mit der Molekülgeschwindigkeit Wärme in kinetische Energie umgewandelt, und bei der Erwärmung wird einfach kinetische Energie in den Wirbel eingebracht, die sich dann in Wärme umwandelt.

Das zwischen den Scheiben entstehende Plasma hat dabei keinen direkten Einfluss auf die Änderung der Temperatur. Es dreht lediglich die Wechselwirkung der Elektronen mit den sich schnell bewegenden Wänden der Scheiben den Wirbel an. Dabei verstärkt eine zunehmende Ionisierung der Luft diesen Effekt immer mehr. Nach dem Verlassen des Spalts erhalten dann die Luft-Moleküle ihre abgegebenen Elektronen wieder zurück. Es gelangt also Luft in den 'Klimator' hinein, und es kommt auch wieder Luft aus ihm heraus.

 

Die Idee für die Weiterentwicklung zur 'Repulsine' kam Schauberger wahrscheinlich, als er bei seinen Versuchen mit dem 'Klimator' Wasser einspritzte und dabei eine Erhöhung der Drehzahl feststellte. Dann entwickelte er das Konzept mit der Wasser-Einspritzung konsequent weiter. Die zunächst flachen Scheiben wurden mit mehreren wellenförmigen Ringen versehen, und an jedem oberen Scheitelpunkt wurden Bohrungen in der oberen Scheibe angebracht.

Wie schon beim 'Klimator' stand die eine Scheibe fest, während sich die andere drehte. Betrachtet man die 'Repulsine' mit den Kenntnissen über Elektronen-Potentialwirbel, erkennt man, dass Schauberger damit einen perfekten Kernfusions-Generator konstruierte, der nach dem Wirbelprinzip arbeitet.

Offensichtlich wusste Schauberger hier sehr genau, was er tat - im Gegensatz zu Mazenauer bei seiner Tornadomaschine. Auch wenn in dem, was er geschrieben hat, kaum etwas darüber zu lesen ist, muss er über Atomphysik sehr viel gewusst haben.

 

In Abbildung 3.3:2 sind der Aufbau einer 'Repulsine' und die darin ablaufenden Vorgänge schematisch dargestellt. Zur Erklärung des Prinzips zeigt die Abbildung nur eine der Wellen in den beiden Scheiben. Auf der Innenseite treten zunächst Luft und Wasser H2O in den Spalt zwischen den beiden wellenförmigen Scheiben ein. Durch die schnelle Drehung des Wirbels werden die Atome ionisiert. Dabei wird das Wasser in Wasserstoff- und Sauerstoff-Kerne aufgespaltet. Die Elektronen e des Plasma-Wirbels verlassen nun außen den Spalt, laufen an der unteren Wand entlang und gelangen von innen wieder in den Spalt hinein.

Dabei wirken die Elektronen an der Außenwand (negative Ladung -) und die Atomkerne im Plasma (positive Ladung +) wie ein Kondensator, der die Atome mit der Coulomb-Kraft Fc in den unteren Scheitelpunkten der Wellen fest hält. Die Fliehkraft Fz wirkt dieser Kraft entgegen und versucht , die Atomkerne in den Wellen nach oben zu schieben. Dabei werden die Wasserstoff-Kerne ohne Neutronen mit der Masse nur eines Protons pro positiver Ladung am stärksten fest gehalten. Auf diese Weise verlassen alle Atomkerne außer den einzelnen Protonen des Wasserstoffs durch die Bohrungen an den oberen Scheitelpunkten den Spalt. Dabei erhalten sie ihre Elektronen zurück und entweichen als Gas - zum größten Teil Sauerstoff O2 und Stickstoff N2 - in die Atmosphäre.

 

Abbildung 3.3:2; Wirkungsweise einer Repulsine

 

Bei den zurück bleibenden Protonen p kommt es dann zum Elektronen-Einfang. Sie werden mit der schwachen Wechselwirkung in Neutronen umgewandelt. Die Neutronen schließen sich danach entweder zusammen oder lagern sich an Protonen oder bereits entstandene größere Atomkerne an.

Durch weiteren Elektronen-Einfang oder Beta-Minus-Zerfall entstehen dabei schwerere Elemente, die nun wieder von der Fliehkraft nach oben geschoben werden, und am nächsten oberen Scheitelpunkt durch die Bohrungen den Spalt verlassen. So beginnt die Fusion in der nächsten Welle wieder mit reinem Wasserstoff. Wie im Plasma eines jungen Sterns sind dabei die Bedingungen für den Elektronen-Einfang und das Entstehen von Neutronen optimal.

 

Bis zu welchen Elementen die Fusion nun abläuft, hängt von der Geschwindigkeit ab, mit der die schweren Elemente jeweils aus den Wellen hinaus geschoben werden. Betrachtet man in Kapitel 2.5 das Diagramm 2.5:1, sollte eine 'Repulsine' so ausgelegt werden, dass die Fusion möglichst vollständig bis zum Helium 2He4 gelangt. So ergibt sich ein optimaler Energiegewinn.

Bei der Auslegung ist zudem darauf zu achten, dass das schwach radioaktive Tritium 1H3 möglichst vollständig in Helium 2He4 umgewandelt wird. Dabei könnte der Sprung nach oben in der Bindungsenergie zum Lithium 3Li6 und die damit verbundene große Häufigkeit des Helium-Isotops 2He4 sehr hilfreich sein. Das Edelgas Helium ist jedenfalls weder radioaktiv noch irgendwie giftig.

 

Mit welchem Wirkungsgrad die bei der Fusion gewonnene Energie genutzt werden kann, ist schwer abzuschätzen. Im Gegensatz zur Tornadomaschine wird die sich drehende Scheibe hier nicht von einer aus der Zu- und Abströmung resultierenden Corioliskraft, sondern direkt von den Elektronen im Potentialwirbel angetrieben. Wie im Plasma eines Sterns entsteht dabei mit der Beschleunigung der Drehung auch eine sehr hohe Temperatur.

Neben der mechanischen Energie an der Welle dürfte also auch viel Wärme frei werden. Auf irgendwelche Details zur Nutzung der Energie wird hier aber nicht näher eingegangen. Am einfachsten ist es, wenn man den zum Start benötigten Motor als Generator betreibt und die entstehende Wärme in die Umgebung entweichen lässt.

 

Obwohl kaum verwertbare Texte oder Zeichnungen zur 'Repulsine' verfügbar sind, gibt es einen Hinweis darauf, dass darin tatsächlich eine Kernfusion abläuft. Beim 'Klimator' warnte Schauberger davor, dass bei einer Erhöhung der Temperatur eine gefährliche Strahlung entstehen würde. Beim Betrieb zur Kühlung gäbe es aber keine Strahlung.

Offensichtlich ist die Geschwindigkeit im Wirbel bei der Erhöhung der Temperatur so groß, dass es zum Elektronen-Einfang kommt. Dabei können aus den Atomen der Luft radioaktive Isotope entstehen, die Beta-Strahlung mit hoher Energie abgeben. Bei feuchter Luft könnte zudem aus dem im Wasser enthaltenen Wasserstoff gefährliche Neutronen-Strahlung entstehen.

Bei einem 'Klimator' gibt es ohne Wasser-Einspritzung keine Kernfusion, bei der Neutronen angelagert oder radioaktive Isotope in stabile Atomkerne umgewandelt werden. Wenn es also zum Elektronen-Einfang und damit zum ersten Schritt einer Kernfusion kommt, kann bei einem 'Klimator' diese gefährliche Strahlung entstehen, vor der Schauberger warnte.

 

Zur Funktion einer 'fliegenden Untertasse' betrachten wir wieder den Potentialwirbel zwischen zwei sich entgegengesetzt drehenden Scheiben, wie er in Abbildung 3.4:1 gezeigt ist. Wenn die beiden Anteile des dreifachen Elektronenwirbels, die nicht die Atomkerne umschließen, wie bei einer 'Repulsine' nur um die untere Scheibe herum führen, kommt es zu einer Abschirmung des elektromagnetischen Feldes. Als Ungleichgewicht in diesem Feld gemäß dem Zeitschalenmodell und der Elektro-Gravitation betrifft diese Abschirmung auch die Gravitation.

Dann stehen auf der Oberseite die Atomkerne mit den Elektronenhüllen aller Atome in der Umgebung in Verbindung, während unten die an der Scheibe entlang laufenden Elektronen von allen Elektronenhüllen in der Umgebung abgestoßen werden. So entsteht eine sehr starke, nach oben gerichtete Kraft, die der Schwerkraft entgegen wirkt. Die in zwei Richtungen der 'Raumzeit' senkrecht zueinander stehenden Anteile des Elektronen-Wirbels auf der Unterseite wirken dabei wie eine undurchdringliche Wand für das elektromagnetische Feld. Weitere Details zu dieser Abschirmung beschreibe ich in Kapitel 4.2 zu Zeitmaschinen. Deshalb gehe ich hier nicht weiter darauf ein.

 

Bei der 'fliegenden Untertasse' dient der Potentialwirbel nicht dazu, die Temperatur zu beeinflussen oder eine Kernfusion in Gang zu setzen, sondern es soll ein möglichst starkes Magnetfeld erzeugt werden. Wenn sich dabei die beiden Scheiben genau gleich schnell entgegengesetzt drehen, wirkt keine Fliehkraft auf das Plasma, und es bleibt unverändert an seinem Platz zwischen den Scheiben. Außer den schnellen Elektronen des Wirbels gelangt dann nichts in den Spalt zwischen den Scheiben hinein oder aus ihm heraus.

So kann die Drehzahl und damit die Intensität des Wirbels und die Stärke des Magnetfeldes theoretisch beliebig vergrößert werden. Wenn dabei die beiden Scheiben reibungsfrei auf Magneten gelagert und auch von Magneten angetrieben werden, begrenzt nur noch die Festigkeit der Scheiben die mögliche Drehzahl.

Bei reibungsfreier Lagerung muss - analog zur magnetischen Induktion - nur dann mit dem Motor Energie zugeführt werden, wenn sich die Intensität des Magnetfeldes ändert. Die meiste Energie wird daher zum Anfahren des zweifachen Rotors benötigt. Bei einem konstanten Magnetfeld und konstanter Abschirmung der Gravitation läuft der Rotor einfach ungebremst weiter.

Mit dem Vorstehenden ist das Prinzip der 'fliegenden Untertasse' nach Schauberger nun erklärt. Auf irgendwelche möglichen Bauformen, technische Details oder Möglichkeiten für eine Steuerung gehe ich hier nicht weiter ein.

 

Aus allem, was über die bereits erwähnten Flugscheiben der Nazis bekannt ist, kann man schließen, dass sie - falls sie jemals gebaut wurden - nach Schaubergers Prinzip der 'fliegenden Untertasse' aufgebaut waren. Die leichten 'Vril'-Flugscheiben besaßen dann nur den beschriebenen gegenläufigen Rotor zur Abschirmung der Gravitation.

Ihre Energie zum Anfahren könnten sie von außen zugeführt bekommen haben. Für die Steuerung reichten dann möglicherweise Batterien. Mit einer kleinen Differenz der Drehzahlen hätten sie aber auch nach dem Prinzip des 'Klimators' die für die Steuerung benötigte Energie wie eine Tornadomaschine aus einer Abkühlung der Luft gewinnen können.

Die schweren 'Haunebu'-Flugscheiben besaßen wahrscheinlich zusätzlich zu dem gegenläufigen Rotor zur Abschirmung der Gravitation eine 'Repulsine' zur Gewinnung ihrer Energie. In der Mitte der Scheibe hatten sie einen ziemlich großen, hohen Aufbau, in dem offensichtlich der Wassertank untergebracht war. Auf die Nutzung einer Abkühlung der Luft bei den 'Vril'-Flugscheiben deutet folgende Aussage hin: Die 'Haunebu'-Flugscheiben waren angeblich uneingeschränkt Weltraumtauglich, während die 'Vril'-Geräte nur innerhalb der Atmosphäre eingesetzt werden konnten.

 

Neben den Gerüchten zu dem UFO mit den Außerirdischen wurde auch behauptet, dass man in 'Area 51' die Flugscheiben der Nazis nachgebaut habe und über der Wüste von Nevada testete. Daraufhin wurde ein Film gezeigt, in dem eine kleine fliegende Untertasse immer dicht über dem Boden zwischen den Hallen in 'Area 51' herum flog. Dieses Gerät war ziemlich langsam und hatte scheinbar nicht die Kraft, um vollständig in die Luft abzuheben. Vielleicht kam aber auch ohne den Bodeneffekt kein stabiler Flug zustande.

Überall gab es an der kleinen fliegenden Untertasse große Gitter, durch die man Propeller oder Turbinen erkennen konnte. Angeblich wurde in Verbindung mit diesen Propellern oder Turbinen der Coanda-Effekt für den Auftrieb genutzt. Offensichtlich wollte man mit diesem Film zeigen, dass man sich zwar mit der Entwicklung von Flugscheiben beschäftigte, aber keine Anti-Gravitation oder ähnliches dabei einsetzte. Irgendwie erschienen jedoch diese Bilder so lächerlich, dass man nun erst recht annehmen konnte, dass in 'Arae51' etwas besonders wichtiges und völlig geheimes verborgen wurde.

 

Zum Coanda-Effekt gibt es wieder die wildesten Spekulationen. Um das Jahr 1910 entwickelte Henri Coanda einen Antrieb für ein Flugzeug ohne Propeller, den er 'Turbo-Propulseur' nannte. Er bestand einem glockenförmigen Gehäuse, in dem ein Turboverdichter untergebracht war, der von einem Kolbenmotor angetrieben wurde. Mit 50 PS erzeugte dieser Antrieb angeblich 220 kp Schub, was deutlich mehr war, als damals ein Propeller erreichen konnte.

Coandas Flugzeug stürzte bei einen Testflug ab und wurde danach nicht wieder nachgebaut. Da bis heute niemand richtig verstanden hat, wie dieser Antrieb funktionierte - offensichtlich auch nicht die Techniker in 'Area 51' -, werden dieser Glocke und ihrem Ansaugtrichter geradezu magische Eigenschaften zugeschrieben.

 

Angeblich soll das glockenförmige Gehäuse wie eine nach vorne verdrehte Tragfläche wirken, und die Form des Trichters soll ebenfalls irgendwie für zusätzlichen Schub sorgen. Zur Erklärung werden auch immer wieder andere geometrische Effekte wie beispielsweise der von Schauberger beschriebene 'Forellenmotor' angeführt. Im Gegensatz zu den magischen Eigenschaften des Coanda-Effektes funktioniert der 'Forellenmotor' wirklich, wie man es überall in schnell fließenden Bächen beobachten kann.

Ich vermute, dass Coanda einfach Kraftstoff in das glockenförmige Gehäuse einspritzte und wie bei einem Strahltriebwerk den Rückstoß aus dessen Verbrennung für zusätzlichen Schub nutzte. Irgendwie erinnert mich die Form dieser Glocke nämlich an die Triebwerke einer Rakete. Und es war auch schon immer eine übliche Praxis, dass man nicht alles über seine Erfindungen verrät.

Viele theoretische Überlegungen zu diesem Thema und einige Versuche - darunter das Modell einer Art fliegenden Untertasse mit einem in einem Trichter untergebrachten Propeller - brachten mich zu folgenden Erkenntnissen:

 

1. Der angeblich "magische" Coanda-Trichter macht nichts anderes als jeder andere Trichter in einem strömungstechnischen System - er reduziert die Verluste bei der Ansaugung. Dabei entsteht mit dem Coanda-Effekt eine laminare Grenzschicht mit geringem Reibungswiderstand an der Wand des Trichters entlang. Bei modernen Segelflugzeugen nutzt man bei Laminarprofilen für die Tragflächen ebenfalls den Coanda-Effekt.

In der Zuströmung zu einem Propeller oder einer Turbine wird ein Coanda-Trichter aber niemals irgendwie zu einer Tragfläche. Meine von einem Elektromotor angetriebene Untertasse wäre auch ohne diesen Trichter vom Boden abgehoben. Also wäre es - wie wohl auch bei dem in 'Area 51' gezeigten Gerät - sinnvoller gewesen, den Trichter einfach weg zu lassen und gleich einen Hubschrauber zu bauen.

 

2. Eine Tragfläche funktioniert nur dann wirksam und effektiv, wenn sie sich gegenüber der umgebenden Luft in Bewegung befindet. Eine Strömung aus einem Propeller oder einer Turbine kann sie nicht wirksam verstärken oder irgendwie direkt in Auftrieb oder Vortrieb umsetzen. Dabei ist es gleichgültig, wie sie geformt ist. Auch ein Propellerblatt ist mit seiner Drehung gegenüber der umgebenden Luft in Bewegung.

Daher erzeugt immer nur die wirksame Fläche eines Propellers Schub. Und je kleiner diese Fläche ist, desto schlechter ist der Wirkungsgrad. Da kann man um den Propeller herum bauen, was man will. Außer zusätzlichem Gewicht bringt das alles nichts.

 

Alle Überlegungen, Berechnungen und Versuche, die mich zu diesen Erkenntnissen geführt haben, würden ein weiteres Buch füllen. Deshalb belasse ich es an dieser Stelle bei diesen beiden Aussagen. Sollte jemand zu anderen Erkenntnissen gekommen sein, kann er mich nur dann von ihnen überzeugen, wenn er entsprechende Versuche vorweisen kann.

Bisher ist das noch niemandem gelungen. Diese angeblichen Geheimnisse um den Coanda-Effekt sind übrigens ein gutes Beispiel dafür, wie man als Parawissenschaftler viel Zeit verschwenden kann, indem man sich mit irgendwelchem intelligent getarnten Unsinn beschäftigt.

3.3.1 Potentialschwelle bei der Kernfusion

In Kapitel 2.2.2 wurde die theoretische Möglichkeit eines Festhaltens eines Neutrons an einem Atomkern als Erklärung angenommen, wie es zur Anlagerung zweier Neutronen kommen kann, wenn das mit einem Neutron entstehende Isotop eine sehr kurze oder überhaupt keine messbare Halbwertzeit besitzt. Wenn eine Potentialschwelle das Anlagern erschwert, kommt es dabei erst beim Eintreffen eines schnellen Neutron mit hoher Energie zur Anlagerung.

Das ist für den Betrieb einer Repulsine wichtig, wenn keine schwereren Isotope als Helium 2He4 den Rotor verlassen sollen, die radioaktiv sein können.

Daher soll hier die Möglichkeit untersucht werden, ob statt eines Festhaltens des ersten Neutrons am Atomkern, direkt bei dessen Eintreffen ein Zerfall in kleinere Kerne erfolgen kann. Dabei geht es um die Zwischenzustände ohne messbare Halbwertzeit 2He5 und 2He7 beim Helium.

 

Wenn die Halbwertzeit nicht messbar ist, gibt es keine Angaben zu möglichen Reaktionsprodukten oder Zerfallsarten. Da aus der Kernstruktur kein Grund ersichtlich ist, warum sich ein Neutron nicht anlagern soll, kann man annehmen, dass es bei 2He5 und 2He7 einen ähnlichen Zerfall gibt wie bei den Alfa-Strahlern 3Li8 und 5B12. An die Stelle der Alpha-Teilchen (Heliumkerne 2He4) treten dann die Wasserstoff-Isotope 1H2 (Deuterium) und 1H3 (Tritium).

Zu bedenken ist allerdings, dass dies dem starken Anstieg der Bindungsenergie vom 2He4 zu den Wasserstoff-Isotopen 1H2 (Deuterium) und 1H3 (Tritium) zunächst widerspricht.

 

Die Bindungsenergie = Masse / Massenzahl beträgt absteigend:

 

1H1 (Wasserstoff): 1,007825

1H2 (Deuterium): 1,00705

1H3 (Tritium): 1,005343

3Li7 (Lithium): 1,002286

5B11 (Bor): 1,000845

2He4 (Alpha-Teilchen): 1,00065

 

vom Helium 2He4 zu den Wasserstoff-Isotopen 1H2 und 1H3 müsste Energie eingetragen werden, während vom Lithium 3Li7 und Bor 5B11 zum Helium 2He4 Energie frei wird. Wenn jedoch der Zwischenzustand nach dem Auftreffen und Anlagern eines schnellen energiereichen Neutrons eine größere Bindungsenergie als Deuterium (1H2; 1,00705) besäße, wäre ein sofortiger Zerfall in kleinere Kerne die Folge. Mit dem sehr großen Sprung bei der Bindungsenergie wäre dann auch plausibel, warum es keine messbare Halbwertzeit gibt.

 

Beim Anlagern eines oder zweier Neutronen an Helium 2He4 könnte also folgendes geschehen:

 

2He4 + n => (2He5) (sofort) => 1H2 + 1H3

2He4 + 2n => 2He6 (0,81 s) => 3Li6 + e-

 

Damit die untere Reaktion stattfinden kann, müssten nun zwei Neutronen annähernd gleichzeitig auf den Atomkern treffen, da es nach der oberen Reaktion nichts mehr gibt, an dem ein Neutron bis zur Anlagerung eines zweiten fest gehalten werden kann. Die Wahrscheinlichkeit dafür ist zwar bei geringer Neutronen-Dichte sehr klein, dafür brauchen aber auch keine Potentialschwellen oder ähnliches zu Erklärung angeführt werden.

 

Für alle Isotope vom Wasserstoff 1H1 bis zum Kohlenstoff 6C13 ergeben sich damit bei der Anlagerung eines oder mehrerer Neutronen folgende mögliche Reaktionen:

 

1H1 + n => 1H2

1H2 + n => 1H3 (12,3 a) => 2He3 + e-

1H3 + n => (1H4) (sofort) => 2He4 + e-

 

2He3 + n => 2He4

2He4 + n => (2He5) (sofort) => 1H2 + 1H3

2He4 + 2n => 2He6 (0,81 s) => 3Li6 + e-

2He4 + 3n => (2He7) (sofort) =>1H2 + 1H2 + 1H3 + e-

2He4 + 4n => 2He8 (0,12 s) => 3Li8 +e- (0,84 s) => 2H4 + 2H4 + 2e-

 

3Li6 + n => 3Li7

3Li7 + n => 3Li8 (0,84 s) => 2He4 + 2He4 + e-

3Li7 + 2n => 3 Li 9 (0,171 s) => 3Li7 + 2n

3Li7 + 2n => 3 Li 9 (0,171 s) => 4Be9 + e-

 

4Be9 + n => 4Be10 (1,6 * 10^6 a) => 5B10 + e-

4Be10 + n => 4Be11 (14 s) => 5B11 + e-

 

5B10 + n => 5B11

5B11 + n => 5B12 (0,02 s) => 2He4 + 2He4 + 2He4 + e-

5B11 + n => 5B12 (0,02 s) => 6C12 + e-

5B11 + 2n => 5B13 (0,017 s) => 6C13 + e-

3.3.2 Die Kernstruktur instabiler Isotope

Um die vorstehenden Überlegungen in Kapitel 3.3.1 weiter zu führen ist es erforderlich die Kernstrukturen der instabilen Isotope näher zu untersuchen. Nachfolgend wird also der Aufbau aller Kerne mit messbarer Halbwertzeit von Wasserstoff 1H1 bis Kohlenstoff 6C16, aufsteigend jeweils nach Ordnungszahl Z und Massenzahl A, untersucht. Dabei wird für die Abbildungen wieder die vereinfachte Punkt-Strich-Darstellung wie in Kapitel 2.5 verwendet, bei der ein Punkt ein Neutron und ein Strich ein Proton darstellt.

Bei den Isotopen 5B8, 6C10 und 6C11 mit weniger Neutronen als beim ersten stabilen Isotop gibt es dazu besondere Strukturen, in denen die Neutronen dichter gepackt sind um mehr Protonen an sich binden zu können. Diese sind in Abbildung 3.3.2:3 jeweils mit einem Kreis für das Up-Quark und einem Punkt für das Down-Quark gezeigt. Die Lage der mit den Neutronen verbundenen Protonen ist wieder mit einem symbolischen Strich gekennzeichnet.

Zu jedem Proton gehört ein Down-Quark im Neutron, das sich mit dem einen Up-Quark des Protons verbindet.

 

Abbildung 3.3.2:1 - 1H1 bis 4Be11

 

 

Abbildung 3.3.2:2 - 4B10 bis 6C16

 

 

 

Abbildung 3.3.2:3 - dichter gepackte Neutronen-Strukturen

 

 

 

Hier zeigt sich, dass sich die Systematik mit PN-Ringen, N-Ringen, sowie P-Brücken und N-Brücken zum Teilen der Ringe in mehrere kleinere auch bei den instabilen Isotopen bestätigt. Für jedes Isotop mit messbarer Halbwertzeit gibt es eine passende Struktur in dieser Systematik.

Mit mehr Neutronen und damit steigender Massenzahl A teilen sich die Ringe in immer mehr kleinere auf, bis kein Platz mehr für die Brücken vorhanden ist. Eine Anlagerung weiterer Neutronen jeweils seitlich von außen an die Protonen gibt es nur bei den leichten Elementen bis zum Beryllium 4Be11.

Zudem ergeben sich, wie bereits vermutet, weitere Erkenntnisse zum Ablauf der Neutronen-Anlagerung bei der Kernfusion in einem Potentialwirbel beim Übergang von Helium 2He4 zu Lithium 3Li6.

 

Wie in Kapitel 1 gezeigt, gibt ein 3Li9 mit 0,171 Sekunden Halbwertzeit entweder seine beiden zusätzlichen Neutronen wieder ab und verwandelt sich zurück in 3Li7, oder es erfolgt ein Beta-minus-Zerfall zum 4Be9. Dieses Verhalten ist durch Beobachtungen belegt.

Der Zerfall des 3Li8 in zwei Alpha-Teilchen 2He4 lässt zwar vermuten, dass 2He5 sofort in die kleineren Kerne 1H1 und 1H2 zerfällt, wie es in Kapitel 1 gezeigt ist. Es ist aber aufgrund der dem 3Li9 sehr ähnlichen Kernstruktur durchaus auch möglich, dass das an das Proton anzulagernde Neutron sofort wieder abgegeben wird, was gut mit dem großen Anstieg der Bindungsenergie vom 2He4 zum 3Li6 zusammen passt.

Damit könnte es nur die Rückreaktion oder nur den Zerfall in kleinere Kerne oder beides mit unterschiedlichen Wahrscheinlichkeiten geben. Vermutlich wird das Neutron bei geringer Energie oder Geschwindigkeit des Auftreffens wieder abgegeben, während es bei hoher Energie zum Zerfall kommt, falls nur ein Neutron vorhanden ist.

Wenn es, wie ursprünglich angedacht und entsprechend dem Zeitschalenmodell gezeigt, ein Festhalten eines Neutrons an einem Atomkern geben sollte, müsste das zweite Neutron für die Umwandlung des 2He4 zum 2He6 mit hoher Energie auf den Atomkern treffen, damit dieses und das bereits am Kern fest gehaltene angelagert werden können.

Das wäre auch eine sehr plausible Erklärung für den starken Anstieg der Bindungsenergie vom Helium 2He4 zum Lithium 3Li6. Und mit einem Festhalten eines Neutron in der Nähe eines Atomkerns erhöht sich die Wahrscheinlichkeit für die Anlagerung zweier Neutronen sehr stark, da diese für exakt den selben Zeitpunkt des Eintreffens gegen null geht.

In diesem Fall wäre die Intensität des Wirbels und nicht die Dichte der Neutronen für die Anlagerung maßgebend.

 

Betrachtet man die Kernstrukturen beim Alpha-Zerfall des 3Li8 genauer, wie in Abbildung 2:4 von links nach recht dargestellt, erkennt man, dass sich beim Eintreffen des Neutrons bereits ein sehr stabiler Helium-Kern (Alpha-Teilchen) 2He4 abtrennt. Beim 2He5 könnte sich entsprechend statt des Helium-Kerns 2He4 ein Proton oder Wasserstoff-Kern 1H1 abtrennen.

Die Zerfallsprodukte des 2He5 wären dann, anders als der Überlegung in Kapitel 1, die Wasserstoff-Isotope 1H1 und 1H4. Bei 1H4 würde sofort der in Abbildung 3.3.2:4 dargestellte Beta-Minus-Zerfall zurück zum Helium 2He4 einsetzen.

Betrachtet man nun wieder die Bindungsenergie, erscheint der ursprünglich angenommene Zerfall in Deuterium 1H2 und Tritium 1H3 ohne Beta-Minus-Zerfall wahrscheinlicher, da Wasserstoff 1H1 mit 1,007825 eine höhere Bindungsenergie als Deuterium 1H2 mit 1,00705 besitzt.

 

Abbildung 3.3.2:4 - Alpha-Zerfall des 3Li8

 

 

Ich weise an dieser Stelle noch einmal darauf hin, dass es keine Versuche gibt, die das Zerfallen des Zwischenzustandes 2He5 in kleinere Atomkerne oder ein Festhalten eines Neutrons in der Nähe eines Atomkerns zum späteren Anlagern bestätigen. Es geht also nur darum, aus den angeführten gesicherten Erkenntnissen auf die Möglichkeit zu schließen, die logisch plausibel am wahrscheinlichsten ist.

3.3.3 Radioaktivität bei einer Repulsine

Hier soll nun das Thema Radioaktivität beim Betrieb einer Repulsine unter Berücksichtigung der vorstehenden Betrachtungen näher untersucht werden.

 

Am effektivsten wäre es sicherlich, wie in Kapitel 3.3 bereits beschrieben, wenn die Kernfusion immer genau bis zum Helium-Isotop 2He4 verlaufen würde. Helium ist nicht giftig und nicht radioaktiv und Tritium mit 12,3 Jahren Halbwertzeit würde vollständig in Helium umgewandelt. Alle schweren Atomkerne, darunter auch das Beryllium-Isotop 4Be10 mit 1,6 * 10^6 Jahren Halbwertzeit, würden gar nicht erst entstehen.

Bei allen vorstehend betrachteten Aspekten zeigt sich beim Übergang von Helium 2He4 zu Lithium 3Li6 eine erhebliche Potentialschwelle, bei der für eine weitere Kernfusion zu schwereren Elementen hin Energie zugeführt werden müsste. Es muss folglich immer so viel Energie als mechanische Energie und Wärme von der Repulsine abgeführt werden, dass diese Schwelle nicht erreicht wird.

Die im Plasma vorhandene Energie steht in einem festen Verhältnis zur Drehzahl der Rotors. Neben einem effektiven Abführen der entstehenden Wärme und Regelung des Generators müsste also die Drehzahl wirksam überwacht und begrenzt werden.

Einen direkten Einfluss auf die Intensität der Kernfusion hat die Menge des eingespritzten Wassers. Also wäre die Drehzahl zu messen und die Wasser-Einspritzung darüber zu regeln.

 

Betrachtet man jedoch die Vorgänge in den Wellen des Rotors genauer, erkennt man, dass darin immer verschiedene Reaktionen gleichzeitig ablaufen.

In den ersten Wellen nach dem Eintritt von Luft und Wasser kommt es zunächst zu einer immer stärkeren Ionisierung. Dann kommt es zu der in Kapitel 3.3 beschriebenen Trennung der schweren Elemente vom Wasserstoff. Damit nun alles außer dem Wasserstoff sicher durch die oberen Öffnungen aus dem Rotor hinaus gelangen kann, sind mehrere Wellen notwendig.

Der Elektronen-Einfang sollte dann erst in den weiter außen befindlichen Wellen einsetzen, wo sich der Wirbel aufgrund des größeren Abstands zur Achse schneller dreht. Sobald nun Neutronen vorhanden sind, lagern die sich an jeden erreichbaren Atomkern an. Es entsteht also aus Wasserstoff 1H1 Deuterium 1H2, aus Deuterium 1H2 Tritium 1H3 und schließlich aus Tritium 1H3 Helium 1H4. Dann verhindert die Potentialschwelle weitere Anlagerungen zu Lithium 3Li6 und schwereren Elementen.

Sobald eins der genannten schwereren Isotope als Wasserstoff entsteht, wird es zu den Öffnungen am oberen Scheitel der Wellen beschleunigt und verlässt den Rotor. Dabei lässt sich nicht verhindern, dass auch radioaktives Tritium 1H3 den Rotor verlässt.

 

Wenn die Menge des eingespritzten Wassers klein genug ist, sind am Austritt alle Wasserstoffkerne entweder durch Elektronen-Einfang zu Neutronen umgewandelt und an andere Atomkerne angelagert worden, oder sie wurden durch Anlagerung von Neutronen zu schwereren Isotopen. So verlassen keine Neutronen den Rotor als Strahlung.

Wenn zudem die Potentialschwelle verhindert, dass schwerere Elemente als Helium entstehen, bleibt nur das Tritium 1H3 mit einer Halbwertzeit von 12,3 Jahren, das radioaktiv strahlend den Rotor verlässt.

 

Es ist anzunehmen, dass Schauberger das radioaktive Tritium 1H3 einfach in die Umgebung entweichen ließ. Wenn sich ein Elektron an den Atomkern anlagert und sich zwei Atome zu einem Molekül zusammen schließen, entsteht aus Tritium 1H3 ein sehr leichtes Gas, das schnell nach oben entweicht.

Aus der gut gelüfteten Halle, wo Schauberger seine Versuche durchführte, gelangte dieses Gas dann nach draußen und stieg in die obere Atmosphäre auf. Dort verteilte sich die Radioaktivität beim Beta-Minus-Zerfall zum Helium 2He3 weiträumig und richtete keinen Schaden an. Und wenn nicht sehr viele Repulsinen weltweit in Betrieb wären, würde sich damit die natürliche Radioaktivität aus dem Weltraum nicht messbar vergrößern.

 

Sollte es die Nazi-Flugscheiben gegeben haben, hätte ein Abgeben schwacher Radioaktivität in die Umgebung sicher niemanden interessiert. Da dachte man mit der Atombombe bereits an sehr viel mehr, was man der Umwelt zugemutet hätte. Heute sind wir bezüglich Radioaktivität erheblich sensibler, was uns sehr viel kritischer auf die Konstruktion einer Repulsine blicken lässt.

Wenn die Repulsine als Energiequelle für ein Raumschiff zum Einsatz kommen soll, könnte man das Tritium-Gas beim Betrieb innerhalb der Atmosphäre auffangen und sammeln und dann im Weltraum, wo bereits eine starke kosmische Radioaktivität vorhanden ist, nach draußen abgeben.

Für den Antrieb eines größeren Raumschiffs mit dem in Kapitel 3.3 und 4.2 beschriebenen Abschirmen der Gravitation als würde man das Prinzip der fliegenden Untertasse anwenden, wo zwischen den Scheiben des Rotors keine Kernfusion stattfindet und entsprechend auch keine Radioaktivität entweichen kann.

 

Unter den vorstehenden Bedingungen wäre eine Repulsine folgendermaßen auszulegen und im Betrieb zu regeln:

Die Intensität des Elektronen-Einfangs hängt von der Menge des eingespritzten Wassers (Anzahl der Protonen) und der Drehzahl (Intensität des Wirbels) ab.

Die maximale Energie (Geschwindigkeit), mit der die Neutronen auf die Atomkerne treffen können, ergibt sich aus der Fliehkraft (Beschleunigung) und der jeweiligen Länge der Welle als längste Strecke zwischen Elektronen-Einfang und Anlagerung. Entsprechend ist die jeweilige Länge der Wellen zu ermitteln. Zusammen mit der Drehzahl kann so über den gesamten Radius des Rotors hinweg verhindert werden, dass die Potentialschwelle überschritten wird. Eine mögliche Auslegung der Wellen (für Innen- zu Außenradius = 0,3 und 5 Wellen) zeigt Diagramm 3.3.3:1.

Die Parameter für die Regelung sind damit die vom Generator entnommene mechanische Energie und die Menge des eingespritzten Wassers, wobei eine Grenze für die Drehzahl einzuhalten ist.

 

Diagramm 3.3.3:1 - Wellen des Rotors einer Repulsine

 

 

Zur Minimierung der entstehenden Wärme bei der Kernfusion in einer Repulsine, die aus einem Raumschiff in das Vakuum der Weltalls nur schwer abzuführen wäre, zeigt sich folgende Möglichkeit:

Der Energiegewinn resultiert aus dem Massendefekt gemäß der Relativitätstheorie. Ein idealer Wirbel besitzt nur Bewegungsenergie in Drehrichtung des Wirbels. Mit der Masse ergibt sich daraus ein Impuls in Drehrichtung. Ändert sich nun durch die Kernfusion die Masse, bleiben der Impuls und seine Richtung erhalten.

Gleicher Impuls und kleinere Masse bedeuten eine höhere Geschwindigkeit. Ein idealer Wirbel wird also schneller, ohne dass die Temperatur ansteigt. So entsteht im Idealfall nur mechanische Energie, die in den Rotor übergeht und mit einem Generator mit hohem Wirkungsgrad in elektrische Energie umgewandelt werden kann.

Wenn es also gelingt den Wirbel weitgehend reibungsfrei zu betreiben, gibt es - im Gegensatz zum Inneren eines Sterns - nur wenig Wärme, die mit der Kernfusion durch die Impulserhaltung verstärkt wird. So sollte es möglich sein, die entstehende Wärme zu minimieren. Bei fast ausschließlicher Bewegungsenergie in einem Potentialwirbel wird auch von kaltem Plasma gesprochen.

Und damit wären wir bei einer Geometrie, die den natürlichen Bewegungsformen - in diesem Fall denen des Wirbels - folgt. Das war ein zentrales Thema der Forschungen Schaubergers, die leider nur wenig dokumentiert sind.

 

Mit dem Vorstehenden sollte klar sein, dass es sich dabei nur um ein grobes Konzept handelt, das noch weit von einer realen Konstruktion oder Auslegung entfernt ist. Für den Bau einer funktionsfähigen Repulsine wären noch viele Forschungen und Versuche notwendig. Die erforderliche Höhe der Wellen im Rotor und der richtige Abstand zur glatten Unterseite, an der außen die Elektronen entlang strömen, sind dabei nur zwei Aspekte von vielen.

3.4 Interstellare Raumschiffe

In meinem Buch zum Zeitschalenmodell habe ich mich bereits eingehend mit den technischen Möglichkeiten für interstellare Raumschiffe auseinander gesetzt. Daher möchte ich hier wieder nur eine recht knappe Zusammenfassung präsentieren. In Kapitel 1.3 habe ich bereits darauf hingewiesen, dass es eine ständige Bedrohung durch den Einschlag eines großen Asteroiden auf der Erde vorhanden ist. Auch wenn die Wahrscheinlichkeit für einen solchen Einschlag sehr klein ist, kann er in wenigen Stunden alles zerstören, was sich eine hoch entwickelte Zivilisation in tausenden oder sogar Millionen Jahren aufgebaut hat.

Daher ist die Möglichkeit einer interstellaren Raumfahrt von zentraler Bedeutung für das langfristige Überleben einer hoch entwickelten Zivilisation. Leider kann man mit der Entwicklung der dafür benötigten Raumschiffe und der Erarbeitung der dafür notwendigen wissenschaftlichen Grundlagen kein schnelles Geld verdienen.

Also entwickelt man lieber immer schnellere Computer mit immer sinnloseren Programmen darauf, die dann auch immer schneller wieder auf dem Müll landen. Damit wären wir wieder bei unserer sinnlosen Arbeit gemäß Schauberger.

 

Statt unsere Arbeitskraft für immer größere Müllberge oder die Zerstörung in einem Krieg zu verschwenden, sollten wir also vielleicht - neben anderen wichtigen Dingen - erst einmal die Grundlagen für eine interstellare Raumfahrt erarbeiten. Es gibt neben dem, was ich zu Schaubergers 'fliegenden Untertasse' beschrieben habe, durchaus Versuche, die Möglichkeiten zur Abschirmung der Gravitation aufzeigen.

Dazu möchte ich neben dem bereits erwähnten Philadelphia-Experiment auf einen Versuch von E. Podkletnov um das Jahr 2000 hinweisen, bei dem mit sich schnell drehenden Magneten die Gravitation abgeschirmt worden sein soll. Ein Elektronen-Potentialwirbel ist auch letztlich nichts anderes als ein Magnet, der sich sehr schnell dreht.

Damit liefert Podkletnovs Versuch einen weiteren Hinweis darauf, dass man die Gravitation mit Magneten beeinflussen kann. Interessant ist, dass immer wieder einmal etwas über solche Versuche berichtet wird, und dann bald nichts mehr darüber zu erfahren ist. Nicht einmal Google findet dann noch etwas neues darüber.

Mit teurem Öl für die Verbrennung in den Triebwerken der Flugzeuge kann man eben viel Geld verdienen. Da kann und darf es nun einmal nicht sein, dass da jemand zeigt, wie man auch ohne dieses Öl einfach so durch die Luft schweben kann.

 

Was ist aber wirklich wichtig für unsere Zivilisation? Das schnelle Geld mit dem Öl oder unser langfristiges Überleben? Die Mächtigen haben sich offensichtlich entschieden. Sie wollen lieber mit ihrem Luxus untergehen, als ein paar von ihren vielen Milliarden Dollar oder Euro abzugeben.

Oder haben sie vielleicht doch Tunnel gebaut und arbeiten im Geheimen in 'Area 51' oder an anderen Orten an Antrieben für die interstellare Raumfahrt? Dann wäre ihnen jedenfalls der Rest der Menschheit egal, wenn sie unter dem Druck immer höherer Energiekosten zunehmend verarmt. Könnte einem da nicht der Gedanke kommen, ihnen allen die Köpfe abschlagen zu wollen? - Aber so einfach ist das ja mit den einfachen Lösungen für komplexe Probleme nicht.

Vielleicht sollte besser die Bestrebung dahin gehen, in den Köpfen der jeweils nachfolgenden Generationen für weniger Dummheit zu sorgen. Leider scheint hier aber die Entwicklung anders herum zu verlaufen. Immer häufiger bekommt man, wenn man jemanden nach seiner Meinung zu einem Thema fragt, die Antwort: "Das muss ich googeln." Wer aber seine Meinung googeln muss, der hat keine. Und wenn Leute, die keine Meinung haben, wählen dürfen, wird es gefährlich - was wieder einmal nicht zum Thema gehört.

 

Als Argument gegen eine Interstellare Raumfahrt werden immer wieder die extrem langen Reisezeiten angeführt, die sich für Entfernungen von vielen Lichtjahren ergeben. Wenn man dabei von der derzeitigen Raketentechnik mit einem großen Treibstoffbedarf für wenig Rückstoß ausgeht, erscheint es wirklich fast sinnlos, sich mit diesem Thema zu befassen.

Wenn es aber gelingt, das elektromagnetische Feld und damit auch die Gravitation abzuschirmen, ergeben sich völlig andere Voraussetzungen. Ist eine solche Abschirmung erst einmal vorhanden, wird für die Beschleunigung selbst keine weitere Energie benötigt.

Man erzeugt gewissermaßen ein "Loch" in der 'Raumzeit', in das man sich dann einfach nur noch hinein fallen lässt. Statt also nach den Druckprinzip immer stärker gegen die Massenträgheit an zuschieben, lässt man mit einem starken Wirbel eine Verkrümmung in der 'Raumzeit' entstehen, der das Raumschiff dann von alleine folgt. Dabei nutzt das Raumschiff die überall in der Materie des Universums enthaltene Energie, die in diesem Fall in eine beschleunigende Kraft umgesetzt wird.

 

Betrachten wir also nun die Bedingungen, die sich aus der Relativitätstheorie und dem Zeitschalenmodell für die Reisezeiten ergeben. Wenn man mit einem Raumschiff den halben Weg mit der Erdbeschleunigung von 9,81 m/s² beschleunigt und die andere Hälfte des Weges mit der gleichen Intensität bremst, ergeben sich für die jeweilige Entfernung s in Lichtjahren die in Tabelle 3.4:1 angegebenen Werte für die Reisezeit tR, die effektive Geschwindigkeit veff/c und die auf die Erde bezogene Geschwindigkeit v/c. Die Reisezeit tR und die effektive Geschwindigkeit veff sind auf die Zeit bezogen, die im Raumschiff für die Astronauten vergeht. Die Geschwindigkeiten veff und v sind in Verhältnis zur Lichtgeschwindigkeit c angegeben.

 

Tabelle 3.4:1; Reisezeiten mit Beschleunigen und Bremsen

 

s

tR

veff/c

v/c

Lichtjahre

Jahre

-

-

1

1,969

1,015

0,7125

3

3,411

1,759

0,8693

10

6,228

3,211

0,9548

30

10,787

5,562

0,9842

100

19,695

10,155

0,9952

300

34,11

17,589

0,9984

1000

62,281

32,113

0,9995

 

Aus der Relativitätstheorie und den Formeln der Lorentz-Transformation (Zeitdilatation) ergibt sich für den Astronauten gegenüber einem fest stehenden Punkt wie die Erde eine erhebliche Verkürzung der Reisezeit. Dabei könnte man eine Strecke von 1.000 Lichtjahren in etwa 62 Jahren zurück legen. Das Raumschiff würde dabei eine effektive - also auf die verkürzte Zeit bezogene - Geschwindigkeit von etwa dem 32-fachen der Lichtgeschwindigkeit erreichen.

Auf die Erde bezogen wäre die Geschwindigkeit allerdings etwas kleiner als die Lichtgeschwindigkeit, sodass auf der Erde etwas mehr als 1.000 Jahre vergehen würden. Wenn ständig mit der Erdbeschleunigung von 9,81 m/s² beschleunigt oder gebremst wird, wirkt das für die Astronauten wie eine künstliche Schwerkraft. Sie wären also nicht wie die Astronauten in der Raumstation ISS der Schwerelosigkeit ausgesetzt.

Für die Astronauten wären also in wenigen Generationen auch weit entfernte Sterne erreichbar. Unter dem Aspekt einer Rettung der Zivilisation vor einer nicht abwendbaren Katastrophe wie dem Einschlag eines großen Asteroiden könnte man das sicherlich akzeptieren. Nach einer Rückkehr könnten dann aber auf der Erde 2.000 Jahre oder eine noch viel längere Zeit vergangen sein.

Was wäre dann aus den auf der Erde zurück gelassenen Überlebenden der Katastrophe geworden? Wahrscheinlich hätten sie sich erst einmal zurück entwickelt und dann vielleicht wieder eine recht primitive Zivilisation aufgebaut. Damit hätten wir eine Situation, wie sie Däniken mit seinen außerirdischen Göttern beschreibt.

 

Wir wissen nicht, in welchen Sonnensystemen sich bewohnbare Planeten befinden, und welche Lebewesen wir dort antreffen würden. Ideal für einen Ort zum Erhalten der Zivilisation wäre ein Planet, der gute Bedingungen bietet und von weniger weit entwickelten Lebewesen bewohnt ist. Wo sollte man einen solchen Planeten aber suchen, wenn man sich gerade vor einer Katastrophe rettet?

Unter den in Tabelle 3.4:1 angegebenen Bedingungen macht es also Sinn, zunächst einmal die Sonnensysteme bis in etwa 100 Lichtjahren Entfernung nach entsprechenden Planeten abzusuchen. Dann weiß man im Falle einer Katastrophe hoffentlich, wohin man sich retten kann.

Den ersten Schritt in diese Richtung machen Astronomen heute schon. Sie suchen mit den stärksten Teleskopen systematisch nach Sonnensystemen, in denen es bewohnbare Planeten geben könnte. Aufschluss darüber geben beispielsweise die kleinen Bewegungen der Sterne, die sie unter dem Einfluss der Gravitation ihrer Planeten ausführen.

Aus der Intensität dieser Bewegung kann man auf die Größe des jeweiligen Planeten schließen. Die Geschwindigkeit der Bewegung resultiert aus der Umlaufzeit, und gibt damit zusammen mit der Größe des Sterns einen Hinweis darauf, ob sich der Planet in einer habitablen Zone befindet.

 

Wenn wir also einmal so weit sein werden, dass wir interstellare Raumschiffe auf die Reise schicken, haben wir hoffentlich eine klare Vorstellung darüber, welche Sonnensysteme wir zuerst ansteuern sollten. Dann müssen wir nur noch hoffen, dass es auf der Erde zu keiner Katastrophe kommt, bevor die Astronauten mit positiven Ergebnissen zurück kommen. Das kann ja schließlich unter den genannten Bedingungen etliche hundert Jahre dauern.

Nehmen wir also an, wir wären mit einem interstellaren Raumschiff unterwegs und würden bei dem Stern Beteigeuze im Sternbild Orion einen idealen bewohnbaren Planeten entdecken. Was würden wir dann machen? Wir würden uns doch erst einmal in einem sicheren Abstand aufhalten und unsere Antennen auf diesen Planeten richten.

Und was würden wir machen, wenn uns dann eindeutige Funksignale erreichen würden, die nach ihrer Entschlüsselung unseren Fernsehprogrammen sehr ähnlich wären und viele Bilder von Gewalt und Zerstörung enthielten? Würden wir es dann riskieren, Kontakt aufzunehmen, oder würden wir erst einmal nach einem anderen Planeten suchen? Ich denke, wir würden letzteres tun.

Genau das könnte der Grund dafür sein, dass es in früheren Zeiten einmal Kontakt zu Außerirdischen gegeben haben könnte, wie es Däniken behauptet, und heute keine Spur mehr von ihnen zu entdecken ist.

 

Selbst wenn es uns gelingen sollte, das mit Schaubergers 'Repulsine' und 'fliegenden Untertasse' beschriebene Prinzip kurzfristig technisch umzusetzen, haben wir noch lange kein interstellares Raumschiff. Bei den zu erwartenden extrem langen Reisezeiten kann man nicht einfach alle benötigten Dinge als Vorrat mit nehmen.

Neben einer absolut sicheren Kreislaufführung für Atemluft und Wasser müssten auch alle Dinge des täglichen Lebens und alle Nahrungsmittel im Raumschiff hergestellt werden. Man müsste sich also gewissermaßen mit dem Raumschiff einen eigenen kleinen Planeten erschaffen. Und wenn auf diesem kleinen Planeten dann irgend etwas schief läuft, - so wie es leider heute auf der Erde die alltägliche Praxis ist - dann war es das mit der interstellaren Mission. Dann treibt ein Geister-Raumschiff führungslos irgendwo durch die unendlichen Weiten des Weltalls.

 

Auch wenn wir mit unserem Raumschiff nur zu den anderen Planeten unseres Sonnensystems aufbrechen, die wir alle mit dem beschriebenen Antrieb in wenigen Tagen erreichen könnten, hätten wir bereits ein Problem. Wir wären ohne ein wirksames System zur Abschirmung der kosmischen Strahlung einer sehr starken Radioaktivität ausgesetzt.

Wenn es also die 'Haunebu'-Flugscheiben tatsächlich gegeben hat und sie "uneingeschränkt Weltraumtauglich" waren, konnte man sich mit ihnen ohne Gefahr nicht weit aus dem Magnetfeld der Erde hinaus wagen.

Für die Apollo-Missionen zum Mond hat man übrigens immer Zeiten abgewartet, in denen die Strahlungsaktivität der Sonne gering war. Bei der relativ kurzen Dauer der Mission war dabei die Strahlendosis so niedrig, dass man sie einem Menschen vielleicht ein- oder zweimal in seinem Leben zumuten konnte. Bei dieser Betrachtung ist zu bedenken, dass das Magnetfeld der Erde auch bei der Entfernung des Mondes immer noch eine abschirmende Wirkung besitzt.

 

Bei einer Reise zum Mars ergibt sich da bereits eine andere Situation. Wenn man Radioaktivität abschirmen will, funktioniert das nicht mit reflektierenden Flächen wie verspiegelten Oberflächen oder ähnlichem. Nur eine große Masse eines dichten Materials kann wirksam radioaktive Strahlung abfangen. Am besten eignen sich dafür dicke Platten aus Blei. Neben den erwähnten lebenserhaltenden Systemen wäre also auch noch ein massiver Panzer aus Blei erforderlich. Wie groß und schwer müsste also damit ein interstellares Raumschiff sein?

Mit einer leistungsfähigen Abschirmung der Gravitation käme man sicherlich irgendwie mit einer großen Masse des Raumschiffs zurecht. Trotzdem können dicke Bleiplatten nicht die optimale Lösung zum Schutz vor der Radioaktivität sein. Das Magnetfeld der Erde schützt uns vor einem großen Teil der kosmischen Strahlung. Also sollte auch das starke Magnetfeld des Antriebs eine ähnliche Wirkung haben können.

Ganz ohne Bleiplatten oder anderes massives Material funktioniert es bei einem einfachen Magnetfeld aber immer noch nicht, da nur geladene Teilchen abgefangen werden. Bei der Erde werden die nicht geladenen Teilchen - dabei vor allem die hoch energetische Gamma-Strahlung - in den oberen Schichten der Atmosphäre zurück gehalten. Bei einer Dicke der absorbierenden Schicht von mehreren Kilometern funktioniert das auch bei der geringen Dichte der Atmosphäre.

 

Kommen wir also zum Potentialwirbel zwischen zwei sich drehenden Scheiben zurück, wie er in Kapitel 3.3 Abbildung 3.3:1 gezeigt ist. Um - wie bei den 'Vril'- und 'Haunebu'-Flugscheiben - lediglich eine Schubkraft nach oben zu erzeugen, genügt es, wenn man wie bei einer 'Repulsine' auf der Oberseite innen keinen Eintritt für die Elektronen des Wirbels vorsieht. Dann gibt es nur auf der Unterseite eine Abschirmung des Elektromagnetischen Feldes.

Man kann aber auch wie in Kapitel 3.3 Abbildung 3.3:2 die Elektronen oben und unten um die Scheiben herum laufen lassen. Wenn man dann über die Größe der Öffnungen für die Elektronen oder andere Maßnahmen zur Regelung dafür sorgt, dass die Abschirmung unten stärker wirkt als oben, gibt es auch eine nach oben gerichtete Kraft.

Einen Elektronen-Wirbel, der das elektromagnetische Feld und die Gravitation abschirmt, können Röntgen- oder Gamma-Strahlen nicht durchdringen. Auch sie gehören zu den elektromagnetischen Wellen. Aufgrund ihrer kurzen Wellenlänge ist bei ihnen lediglich die übertragene Energie besonders groß. Bei Neutronen-Strahlung ist die Abschirmung der Gravitation wirksam. Geladene Teilchen wie Alpha- oder Beta-Strahlung werden dabei bereits vom Magnetfeld des Elektronen-Wirbels zurück gehalten. Bei ausreichender Intensität ist also das Innere eines Elektronen-Potentialwirbels wirksam von der kosmischen Strahlung abgeschirmt.

 

Führt man nun den oberen und unteren Elektronenwirbel nicht einfach nur um die beiden Scheiben, sondern jeweils außen um die Hülle des Raumschiffs herum, kann man oben oder unten zwischen der Außenwand und dem Rotor die Räume für die Astronauten unterbringen. Ein entsprechend starker Wirbel hält dann jegliche Art von Strahlung von diesen Räumen fern.

Mit einer Aufteilung des Elektronen-Wirbels in einen Teil außen um die Hülle des Raumschiffs herum und einen weiteren innen an der Scheibe entlang, lässt sich zudem unabhängig von der antreibenden Kraft eine künstliche Schwerkraft einstellen, die auf die Räume für die Astronauten wirkt.

Dann kann man mit einem entsprechend starken Antrieb das Raumschiff viel stärker als mit der Erdbeschleunigung anschieben und entsprechend schneller eine hohe effektive Geschwindigkeit veff erreichen. Mit der fünffachen Erdbeschleunigung konnten dann - auf das Raumschiff und den Astronauten bezogen - die 1.000 Lichtjahre in Tabelle 3.4:1 in knapp 28 Jahren zurück gelegt werden. Effektiv würde man dabei ungefähr das 72-fache der Lichtgeschwindigkeit erreichen. Auf der Erde würden dabei allerdings immer noch etwa 1.000 Jahre vergehen.

 

Auch wenn die aufgezeigten Möglichkeiten bereits sehr an Science-Fiction erinnern, beruhen sie ausschließlich auf den physikalischen Eigenschaften eines Elektronen-Potentialwirbels und der Zeitdilatation nach der Relativitätstheorie. Das hier vorgestellte Raumschiff macht keine Sprünge durch den "Hyperraum" und ist auch nicht mit einer fiktiven "Warp-Geschwindigkeit" unterwegs - wobei das Erzeugen eines „Loches” in der 'Raumzeit' mit einem Elektronen-Potentialwirbel ziemlich exakt der Beschreibung des fiktiven Warp-Antriebs entspricht. Das Raumschiff benutzt auch keine Abkürzungen in der 'Raumzeit' durch "Wurmlöcher" oder schwarze Löcher hindurch.

Trotzdem könnte man damit - zumindest auf das Raumschiff und die Astronauten bezogen - große Entfernungen in relativ kurzer Zeit zurück legen. Hier irgendwelche technische Lösungen für die Versorgung der Astronauten mit allem Lebenswichtigen für die lange Reise oder sogar Entwürfe für ein Raumschiff vorstellen zu wollen, wäre wohl Science-Fiction. Sicherlich könne man aber die kurz angesprochenen Aspekte auf der Grundlage der aktuellen Wissenschaft und bekannten Technik noch erheblich weiter vertiefen.

 

Auch ohne diese tieferen Einblicke sollte jedoch klar geworden sein, dass noch sehr viel intensive Forschung nötig ist, bevor ein interstellares Raumschiff zu anderen Sonnensystemen aufbrechen kann. Eine Abschirmung der Gravitation mit einem magnetischen System widerspricht der anerkannten Sichtweise zu den atomaren Kräften.

Danach ist die Gravitation kein Ungleichgewicht im elektromagnetischen Feld, sondern eine eigenständige atomare Kraft, die sich mit dem Magnetismus nicht beeinflussen lässt. Die Ursache dieser Kraft kennt man aber bis heute nicht. Trotzdem wird niemand wirklich ernst genommen, der zu diesem Thema eine andere Sichtweise präsentiert.

Wie ich es bereits mehrfach angesprochen habe, sind es vor allem wirtschaftliche Gründe, die eine intensive und teure Forschung abseits der anerkannten Physik weitestgehend verhindern. Und diese Wirtschaft hat unsere Demokratien und deren ständig an der Nase herum geführten Wähler fest im Griff. Als die Nazis noch ihre Wunderwaffen entwickelten, sah es dagegen ganz anders aus.

Da war jedes Mittel recht und keine Investition zu hoch, wenn sie nur irgendwie eine deutliche Überlegenheit gegenüber dem Feind versprach. So wurde die Raketentechnik in kürzester Zeit gewissermaßen aus dem Nichts so weit entwickelt, dass man damit nur relativ kurze Zeit später den Mond erreichen konnte. Bei der Atomenergie lieferte man die Grundlagen für die Atombomben, die in Hiroshima und Nagasaki abgeworfen wurden.

Mit dem Projekt 'Glocke' und den Fluggeräten 'Vril', 'Haunebu' und 'Andromeda' wurde sogar bereits an einer Abschirmung der Gravitation gearbeitet. Ob es dabei lediglich bei einigen Versuchen und den bekannten Entwürfen geblieben ist, bleibt der Öffentlichkeit bis heute vorenthalten.

 

Die Nazis sind sicherlich auch ein gutes Beispiel dafür, was es bedeutet, wenn das Wissen, über das ich in diesen Buch schreibe, alleine einer selbst ernannten "Elite" zugänglich ist, und das Volk mit primitiven Parolen auf Führer und Vaterland eingeschworen wird. Auf was werden wir aber heute eingeschworen? Vielleicht auf die Vorzüge einer kaum richtig funktionierenden Demokratie oder die "magische" Kraft eines nie endenden Wirtschaftswachstums? Oder auf den besonderen Kick eines ständigen Konsumrausches?

Wer dabei einfach denkt, weil er nie etwas vernünftiges gelernt hat, kann schnell auf die Idee kommen, dass man endlich einen "kompetenten" Führer an die Macht lassen sollte. Vielleicht kann man deshalb überall auf der Welt eine sehr starke Entwicklung in diese Richtung beobachten. Ein klar definierter "Feind" ist jedenfalls viel einfacher zu bekämpfen, als ein immer größer und bedrohlicher werdender Berg von Problemen.

 

Das Einzige, was hier langfristig zum Ziel führen kann, ist doch, wenn möglichst das GESAMTE Wissen bei ALLEN Menschen bekannt ist und auch so weit verstanden wird, dass jeder entsprechend handeln kann. Dann gibt es hoffentlich auch irgendwann einmal Parteien, die ein klares Konzept konsequent und ehrlich vertreten und nicht bei ihrer Gier nach Wählerstimmen immer nur möglichst geschickt um alles herum reden.

Wenn dann genügend Menschen ausreichend gebildet sind, gibt es vielleicht auch eine Mehrheit, die diese Parteien wählt. Heute ist das sicherlich noch reines Wunschdenken, aber man soll ja bekanntlich die Hoffnung nie aufgeben. Ich möchte jedenfalls mit meinen Büchern einen kleinen Beitrag in diese Richtung leisten.

In den Händen eines "Führers" oder einer selbst ernannten "Elite" stellt das hier knapp vorgestellte Wissen sicherlich eine große Gefahr für die gesamte Menschheit dar, so wie es Schauberger befürchtete. Es ist aber bereits mehr als ein halbes Jahrhundert vergangen, seit Schauberger seine Bedenken äußerte und für sich die Konsequenzen daraus zog. Sollen wir also wie Schauberger resignieren, oder sollten wir vielleicht besser alles daran setzten, die Welt in eine bessere Zukunft zu führen?

 

Wer jedenfalls seinen Reichtum auf Erdöl und andere Rohstoffe aufbaut, die unsere in den Himmel wachsende Wirtschaft in immer größeren Mengen benötigt, wird alles daran setzen, dass die Allgemeinheit über die überall im Universum vorhandene Energie möglichst gar nicht erst etwas erfährt.

Was wollen wir aber? Als Zivilisation wirklich langfristig überleben, oder alle unsere Ressourcen sinnlos verschwenden und dann gewissermaßen in unserem eigenen Dreck ersticken? Da gibt es Argumente wie: Hier in Deutschland sind doch Luft und Wasser wieder sauber. Das ist sicherlich richtig.

Aber wie sieht es beispielsweise in China aus? Und wie viel tropischer Regenwald wird täglich abgeholzt, um immer mehr Platz für ökologisch wertlose Monokulturen zu schaffen? Wir haben nur EINE Erde. Da kann man sich nicht irgendwo ein "Paradies" schaffen wollen und den Rest der Welt einfach verrecken lassen.

Ich führe hier das an, was GETAN wird, und nicht das, worüber die Politiker überall ständig nur reden. Umweltschutz ist nämlich immer nur dann wirklich ein Thema, wenn man Geschäfte damit machen kann. Wer nun anführt, dass doch weltweit sehr viel für den Artenschutz und ähnliches getan wird, dem möchte ich nur sagen, dass alles noch viel schlimmer wäre, wenn die Naturschützer nicht so aktiv wären.

 

Mit meinem ganzheitlichem Denken bin ich jetzt von der interstellaren Raumfahrt zu meinen Elfengeschichten gekommen. Wie wäre es also mit einer Gesellschaft, die so funktioniert, wie ich es bei meinen Elfen beschreibe? Sollten wir - oder besser gesagt, die Mehrheit von uns - nicht eine Gesellschaft anstreben, die so ähnlich wie bei diesen Elfen funktioniert - ohne sinnlose Verschwendung, ohne Gewalt und Unterdrückung, ohne systematische Verdummung und ohne religiösen Wahn?

Auf eine Macht ausübende Regierung, bei der es immer Möglichkeiten für den Missbrauch dieser Macht gibt, könnten wir dann wie die Elfen verzichten. Alle gemeinschaftlich beschlossenen Regeln oder Gesetze würden dann im Rahmen einer 'Verwaltung' von entsprechend geschulten Personen in die Praxis umgesetzt. Da niemand in eine Notlage gedrängt würde, wäre es überflüssig, im Rahmen einer Strafverfolgung Druck auf das Volk auszuüben. Mehr dazu gibt es in meinen Geschichten von den Elfen zu lesen.

 

Falls das Wissen, das ich in diesem Buch vorstelle, wirklich bereits bei einer selbst ernannten "Elite" vorhanden ist, wie es bei verschiedenen Verschwörungstheorien behauptet wird, sollten wir uns als Allgemeinheit dieses Wissen so schnell wie möglich ebenfalls aneignen. Dann gibt es hoffentlich bald keinen Grund mehr, vor einer von den Menschen selbst verursachten globalen ökologischen Katastrophe in die Tunnel flüchten zu wollen, die angeblich von dieser "Elite" gebaut wurden.

Mit einem Raumschiff auf der Suche nach einem bewohnbaren Planeten - vielleicht über mehrere Generationen hinweg - einsam und verlassen durch das Weltall zu irren, ist sicherlich nur etwas für sehr starke Persönlichkeiten. Deshalb sollten wir nur Männer und Frauen mit einem besonders starken Charakter als Astronauten für interstellare Raumschiffe auswählen. Im Falle einer unabwendbaren plötzlichen Katastrophe, wie dem Einschlag eines großen Asteroiden, wären nur sie in der Lage, irgendwo im Weltraum für das Überleben unserer Zivilisation zu sorgen.

 

Für alle Menschen wird es niemals genügend Raumschiffe geben. Also kann es bei einer Flucht in den Weltraum nur um das Überleben der Zivilisation als ganzes und nicht um einzelne Schicksale gehen. Deshalb sollten nur diejenigen Astronauten werden, die das gerne möchten und auch von ihrem Charakter her dafür geeignet sind.

Sie sollten dann auf geeigneten Planeten Stützpunkte einrichten, auf denen alles vorhanden ist, was eine Zivilisation zum Überleben braucht. Wenn es dann irgendwann zu einer Flucht vor einer Katastrophe kommt, kann man keine sinnvolle oder gerechte Auswahl mehr treffen. Dann sollte man einfach jeden mit nehmen, für den es noch einen Platz in einem Raumschiff gibt.

Entscheidend ist dabei, dass NIEMAND außer den Astronauten, die speziell für eine solche Mission ausgebildet werden, ein Anrecht auf einen Platz in einem Raumschiff haben darf. Alles andere würde bedeuten, dass man die Menschen in zwei Klassen einteilt: in Wichtige oder solche, die sich für wichtig halten, und Unwichtige.

Wer also in die Politik geht, hat seine Aufgabe darin gefunden, sich an der Führung eines Staates zu beteiligen. Wenn dieser Staat bei einer Katastrophe komplett ausgelöscht wird, gibt es nichts mehr zu führen. Damit wird der Beruf des Politikers überflüssig.

 

Also steht selbst einem Bundeskanzler oder Präsidenten kein Anrecht auf einen Platz in einem Raumschiff zur Flucht zu. Dann geht es nur noch um das Überleben und das Erhalten des Wissens und der Technik. Und das ist ausschließlich die Aufgabe der Astronauten, die sich damit ihr gesamtes Berufsleben lang beschäftigen.

Diese Regelung beruht auf der Gleichheit jeden Bürgers vor dem Gesetz, wie sie bereits in unserem Grundgesetz verankert ist. Wir haben nun einmal keine Könige oder Kaiser mehr, denen "von Gottes Gnade" einen besonderer Status zusteht.

 

Auch wenn die technischen Aspekte zu einer interstellaren Raumfahrt vielleicht ein wenig zu kurz gekommen sind, ist hoffentlich klar geworden, wie wichtig es für das langfristige Überleben einer hoch entwickelten Zivilisation ist, sich mehrere Siedlungen oder Stützpunkte im Weltraum einzurichten. Ich denke dabei an Zeiträume von tausenden oder Millionen Jahren.

So wie sich das Leben einmal aus den Ozeanen heraus über die ganze Erde ausgebreitet hat, muss sich auch eine hoch entwickelte Zivilisation in den Weltraum hinaus ausbreiten, wenn sie eine sehr lange Zeit überleben will. Der Weg in den Weltraum ist dabei nichts anderes als ein weiterer Schritt der Evolution. Dann sieht die vollständige Kette der Entwicklung vielleicht in etwa so aus: Einzeller - einfacher mehrzelliger Organismus - Fisch - Reptil - Säugetier - Mensch - Astronaut - ?.

 

Das Fragezeichen steht für eine mögliche, noch höhere Stufe als den Astronauten, für die unsere heutige Vorstellungskraft noch nicht ausreicht. Könnte diese Stufe der Entwicklung vielleicht das sein, was wir als 'Gott' bezeichnen? - Oder ist es vielleicht Nietzsches 'Übermensch', falls Gott tot sein sollte?

Wenn wir mit dieser höchsten Stufe der Entwicklung über die sechs Dimensionen der 'Raumzeit' auf geistiger Ebene verbunden sind, wie ich es in Kapitel 4.1 beschreiben werde, kann sie jedenfalls die Quelle der universellen schöpferischen Kraft sein, die alles im Universum entstehen lässt. Dabei ist es gleichgültig, ob wir sie 'Gott', 'Jahwe', 'Jehova', 'Allah' oder irgendwie anders nennen.

 

Wichtig bei der vorstehenden Betrachtung ist, dass auch das am höchsten entwickelte Lebewesen mit dieser Kette der Entwicklung immer fest verbunden bleibt. Ohne den Einzeller, der beispielsweise in Form von vielen Millionen Bakterien in unserem Darm für die Verwertung unserer Nahrung sorgt, wären wir überhaupt nicht lebensfähig.

Auch wenn uns also Bakterien als Krankheitserreger immer wieder gefährlich werden können, dürfen wir sie nicht einfach mit einem übertriebenen Sauberkeits- oder Hygienewahn aus unserem Leben verbannen. Die meisten Krankheiten sind letztlich ein Produkt unserer in die Irre geführten und orientierungslos gewordenen Gesellschaft - Hier verweise ich noch einmal auf Schauberger.

Das hat unsere Immunsysteme schwach gemacht, sodass Bakterien und Viren nun ein leichtes Spiel haben. So können viele von uns nur noch überleben, wenn wir mit immer neuen chemischen Keulen auf Bakterien los gehen und uns mit immer mehr Impfungen vor den Viren zu schützen versuchen. Das macht aber letztlich nur die Ärzte und die Pharmaindustrie reich.

Unsere Immunsysteme schieben dabei immer mehr Langeweile und suchen sich harmlose Tierhaare, Pollen oder Hausstaub als "Gegner". Das freut dann wieder die Ärzte, die Pharmaindustrie und die Hersteller von Reinigungsmitteln. In besonders schlimmen Fällen greift dann das Immunsystem auch direkt den Körper an. So entstehen schwere und weitgehend unheilbare Krankheiten wie Krebs, Leukämie, multiple Sklerose oder ähnliches.

 

Nur wenn wir also das Prinzip der Symbiose richtig verstehen und auch zu unserem Prinzip des Überlebens machen, haben wir die Chance, als Zivilisation den Status eines interstellaren Astronauten irgendwann einmal zu erreichen. Das können wir aber nur MIT der Natur, und nicht GEGEN die Natur, wie es leider bei unserer heutigen Technik und auch bei der Medizin noch die Regel ist.

Damit wäre ich wieder bei Schauberger, auf den ich für tiefere Einblicke in diese Denkweise nun verweisen möchte. Auch wenn es über sein Wissen und die von ihm entwickelte Technik kaum etwas zu lesen gibt, kann man von ihm viel über einen verantwortungsvollen Umgang mit der Natur erfahren.

3.4.1 Konzept für ein kleines Raumschiff

Aus den Betrachtungen in den Kapiteln 3.3, 3.3.1, 3.3.2 und 3.3.3 zu Schaubergers fliegenden Untertasse und Repulsine lässt sich ein Konzept für ein einfaches kleines Raumschiff für den interplanetaren Einsatz herleiten. Wie es in Abbildung 3.4.1:1 im Schnitt dargestellt ist, eignet es sich für zwei oder drei Astronauten.

Der ellipsenförmige Raum in Zentrum ist als Druckkabine für die Besatzung ausgeführt. Er ist in drei luftdicht abgeteilte Abschnitte aufgeteilt: Kommandostand, Koje mit WC und Ausstiegsschleuse. Über luftdicht schließende Türen sind dabei jeweils die beiden andern Abschnitte erreichbar, damit immer zwei weiter benutzt werden können, falls einer durch einen Meteoriteneinschlag undicht werden sollte.

Über die Ausstiegsschleuse sind die drei Ausstiege erreichbar: Der normale Ein- und Ausstieg nach draußen und die beiden Koppel-Ausstiege oben und unten zum Andocken an andere Raumschiffe oder eine Raumstation. So kann entweder mit Raumanzug nach draußen in den Weltraum ausgestiegen oder direkt in ein anderes Raumschiff oder eine Raumstation umgestiegen werden.

 

Abbildung 3.4.2:1 - Raumschiff im Schnitt

 

 

Für den Antrieb und als Energiequelle kommt eine Kombination aus Schaubergers Repulsine und fliegenden Untertasse zum Einsatz, von der die Räume für die Astronauten im Zentrum komplett getrennt sind. So ergibt sich eine künstliche Schwerkraft lediglich aus der Beschleunigung des Antriebs. Beim Einkreisen in einen Orbit herrscht im Raumschiff also Schwerelosigkeit.

Anders als bei einer einfachen Repulsine gibt es hier einen Weg für den Elektronen-Wirbel auf der Oberseite, der innen durch Schlitze mit Regelklappen zum Eintritt in den Rotor zurück führt. Mit den Klappen kann nun bei konstant laufendem Rotor an jeder Stelle des Umfangs bestimmt werden, wie stark die Abschirmung der Kräfte, die das Universum zusammen halten, auf der Oberseite wirksam ist.

Bei komplett geöffneten Klappen ist sie oben gleich groß wie unten. Die Repulsine arbeitet dann lediglich als Kernfusions-Reaktor und Generator. Durch schließen Klappen wird die Abschirmung oben reduziert, sodass ein in alle Richtungen steuerbarer Schub nach oben entsteht.

 

Wird also auf ein Objekt irgendwo im Weltraum zu gesteuert, erfolgt eine konstante Beschleunigung, die möglichst in der Größenordnung der Erdbeschleunigung liegen sollte. Ist der halbe Weg zurück gelegt, muss das Raumschiff um 180° herum gedreht werden, damit mit gleicher Intensität wieder gebremst werden kann. Bei Start oder Landung auf einem Mond oder Planeten wirkt der Antrieb zum Beschleunigen oder Abbremsen immer der Schwerkraft entgegen.

 

Auf der Abbildung hat der ringförmige Rotor keine Verbindung zum Rest des Raumschiffs. Das ist im Prinzip richtig, da eine reibungsfreie Lagerung der Rotors in Magnetfeldern zum Einsatz kommen soll. Wie diese aussehen soll, ist aber nicht dargestellt.

Zum Anfahren des Rotors und Umwandeln der Energie aus der Kernfusion in Elektrizität werden um den Umfang des Rotors herum Permanentmagnete angebracht, die mit feststehenden Elektromagneten wechselwirken. Das ermöglicht einen Betrieb als Motor oder Generator.

Irgendwelche Magnete (Permanent- oder Elektromagnete) im Bereich des Elektronenwirbels würden diesen stören und die Abschirmung der Gravitation ungünstig beeinflussen. Deshalb sind eine magnetische Lagerung und die Magnete für den Motor oder Generator innen und außen außerhalb des Elektronenwirbels anzuordnen. Es wird also innen und Außen am Rotor ein Ring mit Speichen angebracht, zwischen denen die Elektronen ungehindert hindurch treten können. Im äußeren Ring gibt es dann nur die magnetische Lagerung und im inneren zusätzlich die Magnete für Motor oder Generator.

Außen sind dann an der Hülle des Raumschiffs ebenfalls Speichen zum Tragen der äußeren Lagerung anzuordnen, zwischen denen die Elektronen zur Oberseite hindurch treten können.

 

Gemäß der Beschreibungen in Kapitel 3.3.3 ist direkt oberhalb des Rotors ein großer Behälter vorgesehen, in dem das radioaktive Tritium 1H3 aufgefangen und gespeichert werden kann, das durch die Bohrungen am oberen Scheitel der Wellen den Rotor verlässt. An der ersten Welle ist für den Betrieb innerhalb der Erdatmosphäre ein Rohr angebracht, durch das die vom Eintritt des Rotors angesaugte Luft auf direktem Weg wieder nach draußen abgegeben wird und nicht den Tritium-Behälter füllt, in den nur die Reaktionsprodukte der Kernfusion gelangen sollen.

Der Tank für das als Treibstoff für die Kernfusion dienende Wasser ist oben innerhalb der Druckkabine um den Weg zum oberen Koppel-Ausstieg herum angeordnet. Alles was nicht, wie praktisch alle Teile der Repulsine als Generator und Antrieb, zwingend außerhalb der Druckkabine angeordnet werden muss, soll drinnen direkt für die Astronauten zugänglich sein. Dazu gehören alle Teile zum Betätigen der Klappen für den Elektronenwirbel, der größte Teil der Elektrik, lebenserhaltende Systeme, elektronische Steuerungen sowie alles für die Navigation, das nicht wie Antennen oder Fernrohre draußen sein muss.

 

Nun soll noch auf die in Kapitel 3.4 recht knapp angesprochene kosmische Strahlung etwas ausführlicher eingegangen werden. Im Gegensatz zu der bei den 'Haunebu'-Flugscheiben möglicherweise oder vermutlich verwendeten einseitigen Abschirmung gibt es beim vorstehenden Konzept bereits eine beidseitige, die dem Magnetfeld eines Sterns oder Planeten ähnlicher ist.

Mit nur einer Abschirmung auf der Unterseite, wie in Kapitel 3.4 bei den 'Haunebu' vermutet, wäre die gesamte Oberseite schutzlos der kosmischen Strahlung ausgesetzt, während zumindest geladene Teilchen unten wirksam abgeschirmt würden. Die zweifache Ausführung schirmt diese aber nun bei entsprechender Auslegung (minimale Intensität auf der Oberseite) auch oben ab. Ob die Intensität des Wirbels ausreichend groß gemacht werden kann um auch Neutronen- oder Gammastrahlung abzuschirmen, ist aus der vorstehenden Betrachtung jedoch nicht abschätzbar.

Im Prinzip wäre das aber möglich. Also könnte ein nach dem vorstehenden Konzept gebautes Raumschiff möglicherweise sogar für einen längeren Aufenthalt im Weltraum geeignet sein. Für wenige Tage dauernde Reisen zu Raumstationen auf den Planeten unseres Sonnensystems mit wechselnden Besatzungen wäre das mit der radioaktiven Belastung jedoch nicht so kritisch.

 

Bei den lebenserhaltenden Systemen kann bei so einem kleinen Raumschiff auch für längere Aufenthalte im Weltraum im Prinzip das eingesetzt werden, was heute in der Raumstation ISS im Einsatz ist. Also braucht es hier keine neuen Ideen oder Konzepte, wie sie in Kapitel 3.4 zur interstellaren Raumfahrt bereits kurz angesprochen wurden.

4. Weitere Aspekte

In den nachfolgenden Kapiteln geht es nun zunächst um Parallelwelten und im Zusammenhang mit diesen um Religionen und Prophezeiungen. Danach wird gezeigt, welche Möglichkeiten sich mit den Parallelwelten und einer Abschirmung der Gravitation für eine Zeitmaschine ergeben. Abschließend geht es darum, wie unter dem Blickwinkel einer ganzheitlichen Betrachtung mit künstlicher Intelligenz umgegangen werden sollte.

Bei diesen Themen steht nicht der wissenschaftliche und technische Standpunkt im Vordergrund, - dessen eingehende Betrachtung den Rahmen dieses Buches sprengen würde - sondern mehr die ganzheitliche Sichtweise und die damit zusammen hängenden gesellschaftlichen Themen. Dabei fließen wieder Erkenntnisse aus Esoterik, Religion, Philosophie und anderen Bereichen der Wissenschaft in die Betrachtung mit ein. Letztlich geht es dabei um eine moralische Instanz, die bei einer rein mathematischen und naturwissenschaftlichen Sichtweise extrem vernachlässigt wird.

 

Vor allem Technik und (Natur-) Wissenschaft gelten in unserer Gesellschaft als "wegweisend", während Geisteswissenschaften oft irgendwie als "veraltet" angesehen werden. Die Rolle der Religion ist in diesem Zusammenhang problematisch. Rein naturwissenschaftlich betrachtet, erscheint sie eher als Unsinn, denken wir aber an unsere eigene Vergänglichkeit, macht sich offensichtlich die Angst vor der Hölle und der ewigen Verdammnis immer wieder breit. Angst führt aber nur selten zu vernünftigen Entscheidungen. Meistens führt sie zu irgendwelchen extremen Reaktionen. Man denke an "heilige Kriege" oder islamistischen Terror.

4.1 Parallelwelten

Nach dem Zeitschalenmodell befinden sich die Energieflüsse, aus denen alles im Universum aufgebaut ist, als 'Ströme' und 'Felder' in einem ewigen Kreislauf durch die sechs Dimensionen der 'Raumzeit'. Von diesen sechs Dimensionen können wir nur die drei Raumdimensionen Länge, Breite und Höhe sehen oder mit irgendwelchen Messgeräten erfassen. Damit ist das, was wir vom Universum kennen, also die Zeitschale des 'Jetzt', nur ein dreidimensionaler Schnitt durch insgesamt sechs Dimensionen.

Alles, was sich von der Zeitschale des 'Jetzt' zum Urknall als Zentrum des Universums hin befindet, ist Vergangenheit, und alles andere zum Zusammenbruch der Materie nach der Ausdehnung hin, liegt in der Zukunft. Die Zeitschale des 'Jetzt' ist dabei der Moment, den wir gerade eben erleben, also der Übergang von der Vergangenheit in die Zukunft. Dabei vergeht die Zeit, indem sich die Zeitschale des 'Jetzt' vom Urknall zum Zusammenbruch der Materie durch die sechs Dimensionen der 'Raumzeit' hindurch bewegt.

 

Nach der Relativitätstheorie stellt sich die Zeit bereits als eine weitere Dimension zu unseren drei Raumdimensionen dar. Die Zeit vergeht dann für uns als dreidimensionale Wesen, indem unsere Wahrnehmung oder die Zeitschale des 'Jetzt' durch die vierte Dimension der Zeit hindurch läuft.

Die Zeit als Abfolge von Ereignissen, so wie wir sie kennen und empfinden, kann es dann überhaupt nicht geben. Sie ist nur eine Illusion. Alle Veränderungen ergeben sich nur aus einer anderen Position in dieser vierten Dimension.

In Wirklichkeit ist dann die gesamte Welt, also Vergangenheit und Zukunft, fest und unveränderlich, und wir haben keine Möglichkeit, irgend einen Einfluss darauf zu nehmen. Welchen Sinn machen aber dann eine schöpferische Kraft und das Prinzip der Evolution?

 

Mit den sechs Dimensionen der 'Raumzeit' ergeben sich nach dem Zeitschalenmodell zunächst einmal zwei Freiheitsgrade mehr. Wie soll es aber dann trotzdem Veränderungen geben, wenn es letztlich nur einen sehr komplizierten Raum gibt, und eine Zeit in Wirklichkeit gar nicht existiert? Dann ist immer noch alles fest vorgegeben, nur irgendwie vorstellen kann sich das Ganze dann niemand mehr.

Etwas irgendwie Vorstellbares, bei dem Veränderungen möglich sind, ergibt sich nur, wenn man die Zeit als das betrachtet, was sie für uns schon immer ist: ein Maß für die Abfolge von Ereignissen und nicht irgendwie eine Eigenschaft des Raumes. Dann haben wir nach dem Zeitschalenmodell sechs Dimensionen des 'Raumes', die sich mit der Zeit verändern können. So können mit einer schöpferischen Kraft Veränderungen ablaufen und eine Evolution bewirken.

 

Wenn man sich nun das Universum als etwas Ganzes aus diesen Sechs Dimensionen vom Urknall bis zum Zusammenbruch der Materie vorstellt, verändert sich dieses Ganze ständig überall, während die Zeit vergeht. Dabei bewegt sich die Zeitschale des 'Jetzt' und damit alles, was wir sehen oder erfassen können, immer weiter vom Urknall weg. Wir finden alles so vor, wie es gerade in dem Teil des Universums aussieht, der sich zum Zusammenbruch der Materie hin oder in der Zukunft befindet. Was wir nun vorfinden, können wir verändern.

Diese Änderungen hinterlassen wir dann im dem Teil des Universums, der sich zum Urknall hin oder in der Vergangenheit befindet. Es ändert sich aber mit der Zeit nicht nur bei uns etwas. sondern ständig überall in Universum. Also ist doch das, was wir vorfinden, das Ergebnis von Änderungen, die sich außerhalb unserer Zeitschale des 'jetzt' im Bereich der Zukunft bereits ereignet haben. Und das, was wir im Bereich der Vergangenheit hinterlassen, ist der Ausgangspunkt für weitere Änderungen.

 

Was geschieht aber nun in dem ganzen riesigen Universum außerhalb unserer Zeitschale des 'Jetzt'? Wir finden alles in der Welt und auch uns selbst als Materie vor, die aus dem Bereich der Zukunft kommt. Das sind die durch das ganze Universum hindurch laufenden 'Ströme' aus Energie der Materie, aus denen auch wir selbst bestehen. Diese verändern wir und überlassen sie dem Bereich der Vergangenheit. Also existiert die Materie, aus der wir bestehen, nicht nur in der Zeitschale des 'Jetzt', sondern als 'Ströme' in der 'Raumzeit' im gesamten Universum.

Damit ist doch das, was wir in der Welt vorfinden, das Ergebnis dessen, was wir selbst im Bereich der Zukunft bereits gemacht haben. Und im Bereich der Vergangenheit finden dann auch wir selbst wieder das vor, was wir jetzt mit unserem Handeln hinterlassen. So wie das gesamte Universum existieren wir also nicht nur in den drei Dimensionen der Raumes, Länge, Breite und Höhe, sondern in allen sechs Dimensionen der Raumzeit.

 

Wenn sich nun das gesamte Universum stetig verändert, dann tun auch wir als Teil dieses Universums ständig und überall etwas. Wir ändern also die Welt nicht nur in der Zeitschale des 'Jetzt', die wir mit unseren Sinnen erfassen können, sondern ständig überall im Universum, sowohl im Bereich der Zukunft als auch im Bereich der Vergangenheit. Bewusst ist uns dabei aber nur das, was wir in der Zeitschale des 'Jetzt' erleben.

Wir leben also als sechs dimensionale Wesen in einem sechs dimensionalen Universum von dem uns nur drei dieser sechs Dimensionen bewusst werden. Alles außerhalb der Zeitschale des 'Jetzt' liegt dabei in für uns nicht zugänglichen und mit den Sinnen nicht erfassbaren Parallelwelten.

Trotzdem existieren wir, oder vielleicht besser das, was wir unsere Seele nennen, ständig über alle Zeit hinweg in allen diesen Parallelwelten. Damit kommen wir zu einem weiteren Prinzip des Zeitschalenmodells: dem 'Prinzip der Gleichzeitigkeit'. Nach diesem Prinzip ist ein 'Strom' der Materie, an allen Orten gleichzeitig, die er auf seinem Weg durch das Universum durchläuft. So existiert auch jedes Lebewesen in allen Parallelwelten gleichzeitig.

 

Mit den Parallelwelten haben wir also eine physikalische Erklärung für eine unsterbliche Seele. Während unsere Körper in den jeweiligen Parallelwelten immer wieder den Zyklus von der Geburt zum Tod durchlaufen, kann die Seele oder das, was jedes Lebewesen ausmacht, über die Parallelwelten hinweg ewig bestehen. Mit der unsterblichen Seele ist auch das verknüpft, was im Hinduismus und Buddhismus als Kreislauf der Wiedergeburt bezeichnet wird.

Eine stetige Veränderung über die Zeit im gesamten Universum lässt nun darauf schließen, dass der Übergang zwischen den Parallelwelten fließend sein müsste. Es gibt aber eine Betrachtung, nach der viele Parallelwelten als diskrete Zustände nacheinander wie die Zeitschale des 'Jetzt' das Universum durchlaufen müssen. Diese Betrachtung habe ich Titanic-Paradoxon genannt.

 

Wenn also in irgend einer Parallelwelt der Kapitän der Titanic beschließt, wegen der Gefahr der Eisberge langsam zu fahren und damit den Zusammenstoß und den Untergang des Schiffes verhindert, gibt es in der vorherigen Parallelwelt ein Wrack am Meeresgrund irgendwo im Eismeer und in der nachfolgenden aus exakt der selben Materie ein stolzes Schiff im New Yorker Hafen.

Bei einem fließenden Übergang von einer Parallelwelt zur nächsten müsste es also irgendwelche Zwischenzustände als Übergang von einem Wrack im Eismeer mit vielen Toten darin und einem Schiff in einem mehrere tausend Kilometer entfernten Hafen geben, das die Passagiere gerade wohlbehalten verlassen.

Solche völlig absurden Zwischenzustände hat man noch nie irgendwo beobachtet. Also müssen die Parallelwelten jeweils völlig eigenständige Zeitschalen des 'Jetzt' sein, die jeweils nacheinander das Universum durchlaufen. Mit dem Prinzip der Resonanz zeigt sich auch, wie der jeweilige Wechsel zwischen den Parallelwelten zustande kommen kann.

Während die 'Ströme' der Materie die 'Raumzeit' durchlaufen, kommt es zu einer Schwingung zwischen dem Aufbau der Materie, so wie wir ihn kennen, und einem für uns nicht wahrnehmbaren oder irgendwie messbaren Zwischenzustand, in dem die Materie in einzelne Atome oder atomare Teilchen aufgelöst ist.

 

Quantenmechanisch ist ein solcher Zustand mit dem Übergang vom Teilchen zum Antiteilchen bei dem in Kapitel 2.2.2 beschriebenen bosonischen Mischzustand beim Neutron und bei neutralen Mesonen vergleichbar. Er beschränkt sich hier jedoch nicht auf einzelne atomare Bausteine, sondern erstreckt sich über einen sehr großen Raum.

An die Stelle des W--Bosons tritt dabei ein Zustand, in dem Raum und Zeit vertauscht sind. Darin erstreckt sich das elektromagnetische Feld durch die drei für uns nicht wahrnehmbaren Zeitdimensionen, und die 'Ströme' der Materie verlaufen durch unsere bekannten drei Raumdimensionen. Dabei tritt an die Stelle des Elektrons ein Elektron-Neutrino, und an die Stelle eines Protons tritt ein Neutron und umgekehrt.

Da in diesem Zwischenzustand Raum und Zeit vertauscht sind, können die 'Ströme' eines Wracks im Eismeer in den New Yorker Hafen gelangen und sich dort zu einem stolzen Schiff wieder zusammen fügen. Auf diese Weise können die 'Ströme' bei ihrem Weg durch die 'Raumzeit' große Sprünge durch den Raum machen und bilden dabei trotzdem über ihren gesamten Weg jeweils einen durchgehenden Energiefluss.

Das alles ist sicherlich nur sehr schwer vorstellbar. Deshalb wird hier nicht näher darauf eingegangen (etwas mehr hierzu ist im Anhang A.8 zu lesen).

 

Bei dem New-Age-Gedanken in der Esoterik gibt es immer wieder neue Zeitalter, die sich in einer Art kosmischem Zyklus mit der Dauer vieler Jahrtausende immer wiederholen. Nach dieser Vorstellung steuert unser Zeitalter gerade auf sein Ende zu. Es wird dabei behauptet, dass es bei jedem Übergang von einem Zeitalter zum nächsten immer eine völlige Zerstörung der Welt und eine komplett neue Ordnung beim Wiederaufbau gibt. Mit diesem Übergang in ein neues Zeitalter kann das Ende einer Kultur wie beim alten Ägypten oder dem römischen Reich wohl kaum gemeint sein.

In beiden Fällen gab es zwar einem Niedergang und Verfall und danach wieder einen Neuaufbau, zu einer völligen Zerstörung der Welt ist es aber nicht gekommen. Vom alten Ägypten und auch von den Römern ist jedenfalls so viel übrig geblieben, dass den Archäologen ihre Arbeit niemals ausgehen wird. Auch von anderen, zum Teil viel älteren, untergegangenen Kulturen gibt es viele archäologische Funde.

 

Wenn aber mit den Zeitaltern in der Esoterik die Parallelwelten gemeint sein sollten, gibt es zwischen ihnen wirklich eine völlige Zerstörung, bei der sich sogar die Struktur der Atome und Moleküle auflöst. Kann es also sein, dass diese Vorstellung von den Zeitaltern auf ein uraltes Wissen zurück geht, bei dem die Existenz der Parallelwelten bereits bekannt war? Gehören vielleicht zu dem selben alten Wissen die bereits erwähnten Kenntnisse der Sumerer über das Entstehen der Planeten in unserem Sonnensystem?

Ich denke, wir machen einen sehr großen Fehler, wenn wir mit unserer grenzenlosen Einbildung und Überheblichkeit unsere frühen Vorfahren als primitiv und dumm ansehen. Was war noch einmal nach Einsteins Erkenntnis absolut zweifelsfrei unendlich groß? - Die menschliche Dummheit, falls Sie es vergessen haben sollten.

 

Alle Parallelwelten stehen über die 'Ströme' der in ihnen enthaltenen Materie zum Urknall bis zu Zusammenbruch miteinander in Verbindung. Dabei bildet jeweils das, was in einer vorherigen, also im Bereich der Zukunft gelegenen, Welt geschehen ist, den Ausgangspunkt für das Geschehen in der nachfolgenden. Da ist es doch mehr als nur Wahrscheinlich, dass ein Lebewesen auf geistiger Ebene mit Hilfe der Telepathie an Informationen aus anderen Parallelwelten gelangen kann.

An die Stelle des elektromagnetischen Feldes als Medium der Übertragung treten dann die Atome der Materie. Im Elektron und im Down-Quark eines Protons verlaufen die 'Ströme' in Zeitrichtung und sind dabei über das elektromagnetische Feld fest mit Raum und Zeit verbunden.

Eine Information, die in Zeitrichtung zu einer anderen Parallelwelt gelangt, müsste also diese 'Ströme' überholen. Damit wäre sie schneller als des Licht, was nach der Relativitätstheorie nicht möglich ist. An dieser Stelle möchte ich nur anmerken, dass es mit 'verschränkten Quantenzuständen' oder 'Tachyonen' durchaus theoretische Ansätze gibt, mit denen ein solches Überholen möglich sein könnte. Darauf soll aber hier nicht näher eingegangen werden.

 

Als Übertragungsweg für Informationen von einer Parallelwelt zu einer anderen bieten sich jedoch die beiden Up-Quarks in einem Proton geradezu an, da ihre 'Ströme' rückwärts durch die Zeit, also vom Zusammenbruch zum Urknall hin, das Universum durchlaufen. Damit ist eine direkte Verbindung ohne 'verschränkte Quantenzustände', 'Tachyonen' oder ähnliches möglich.

Wie im Kapitel 2.1 zum Thema Resonanz und Telepathie bereits beschrieben, sind dabei gleiche oder sehr ähnliche Muster im molekularen Aufbau oder beim Ablauf von Schwingungen erforderlich, damit eine Verbindung oder Übertragung zustande kommen kann. Wenn ein Lebewesen in mehreren Parallelwelten gleichzeitig existiert, dann ist auch dessen Gehirn in allen diesen Welten weitgehend gleich aufgebaut.

Dann braucht es nur noch eine gemeinsame Erinnerung, wie das Bild einer besonderen Landschaft oder eine bestimmte Musik, um mit der Resonanz eine Verbindung zustande kommen zu lassen. Was wäre aber, wenn ständig Bilder und Geräusche aus irgendwelchen Parallelwelten in unseren Köpfen herum spuken würden?

 

So etwas könnte uns doch in den Wahnsinn treiben, und wir wären nicht fähig, uns auf die Dinge unseres Alltags zu konzentrieren. Deshalb kommen solche Verbindungen in der Regel nur unbewusst zustande. Eine gute Gelegenheit dazu ist, wenn der Körper im Schlaf zur Ruhe kommt.

Dann erreichen uns solche Bilder und Geräusche als Träume. Diese verarbeiten wir dann normalerweise völlig unbewusst im Schlaf, und können uns nach dem Aufwachen an nichts davon erinnern. Manchmal werden uns aber plötzlich Dinge bewusst, an die wir vorher nicht gedacht haben.

Ein teurer Gegenstand, den wir am Tag vorher noch unbedingt kaufen wollten, erscheint uns auf einmal gar nicht mehr so schön oder praktisch. Wir erkennen daran Nachteile, die uns am Tag zuvor überhaupt nicht aufgefallen sind, und verzichten schließlich auf den Kauf. Deshalb sagt man, dass man bei wichtigen Entscheidungen immer immer eine Nacht schlafen sollte, bevor man diese fällt.

Verkäufer wissen das, und drängen gerne mit auf einen Tag befristeten Preisnachlässen oder ähnlichem zu einem sofortigen Kauf. Als Käufer ist es daher am geschicktesten, erst dann an einen Verkäufer heran zu treten, wenn man sich schon längst für den Kauf entschieden hat. Dann kann man vielleicht beim Gespräch lange zögern, bis der Verkäufer noch weiter mit dem Preis herunter geht.

 

Manchmal erinnern wir uns auch an unsere Träume. Das kommt häufig vor, wenn wir plötzlich aus dem Schlaf heraus gerissen werden. Wenn wir also morgens absolut keine Lust zum Aufstehen haben, dösen wir so lange im Halbschlaf mit unseren Träumen herum, bis der Wecker klingelt.

Dann erinnern wir uns oft an den ganzen Traum. Wenn der sehr schön war, wollen wir vielleicht immer noch nicht aufstehen und dösen einfach weiter. So ist es oft, wenn wir wieder einmal verschlafen. Dann vergessen wir statt des Traumes das Klingeln des Weckers.

Wenn es ein böser Alptraum war, sind wir meistens sofort hellwach und in Schweiß gebadet. Danach quälen wir uns müde und unausgeschlafen zur Arbeit. Oft sind wir dann erst nach einer ordentlichen Dosis Koffein überhaupt einigermaßen ansprechbar. Da ist es gut, dass das Auto den Weg zum Büro kennt, und es keine Koffein-Grenze beim Straßenverkehr gibt. Mit Alkohol statt Kaffee wäre da eine Katastrophe vorprogrammiert.

 

Ich denke, diese sehr persönlichen Erfahrungen machen die Zusammenhänge etwas besser verständlich als Elektronen, Quarks und eine sechs dimensionale 'Raumzeit'. Wichtig ist dabei, dass wir im Traum mit allen Parallelwelten direkt in Verbindung treten können, die bereits VOR uns das Universum durchlaufen haben, also im Bereich der Zukunft liegen.

Dabei erfahren wir, wie es uns selbst oder einer uns sehr vertrauten Person in einer vorherigen Parallelwelt zu einer Zeit bereits ergangen ist, die für uns in der ZUKUNFT liegt. Von der Vergangenheit erfahren wir aus der Erinnerung - entweder aus unserer eigenen, oder aus dem, was uns andere erzählen.

Ein ferner Blick in die Zukunft sollte am besten mit Hilfe eines unserer Nachfahren möglich sein, der in einer weit vor uns liegenden Parallelwelt lebt. Mit unserem Erbgut werden sicherlich auch einige Besonderheiten in der Struktur des Gehirns weiter gegeben.

Dazu kommen Geschichten der Familie, die von Generation zu Generation weiter erzählt werden. Auch das Betrachten eines alten Erbstückes kann im Gehirn ein Muster erzeugen, das eine Resonanz mit dem Gehirn einer Person in einer nachfolgenden Parallelwelt auslöst.

 

Mit dem hier beschriebenen Weg nimmt ein Schamane wahrscheinlich mit einem Nachfahren in einer weit entfernten Parallelwelt Kontakt auf, wenn er die "Ahnen" befragt. Informationen von seinen Vorfahren kann er ja nur aus der Erinnerung erhalten. Außerdem möchte er etwas über seine bevor stehende Zukunft erfahren. Da wären Erinnerungen aus einer fernen Vergangenheit sicherlich wenig hilfreich.

Mit einer anderen Parallelwelt kann man nur im Traum oder in einem dem Traum sehr ähnlichen Zustand wie Trance oder Hypnose in Verbindung treten. In einen solchen Zustand versetzen sich Schamanen mit Drogen und indem sie sich in eine Extase hinein trommeln und tanzen.

Eine weitere Methode ist der so genannte Inkubationsschlaf. Dabei versucht man durch intensives Denken an ganz bestimmte Dinge während des Einschlafens, bestimmte Situationen im Traum herbei zu führen. Gleichzeitig trainiert man sich an, seine Träume beim Aufwachen nicht zu vergessen.

Wenn man das Jahre oder Jahrzehnte lang intensiv trainiert, kann man irgendwann immer wieder gezielt in eine ganz bestimmte Traumwelt hinüber wechseln. Gegenüber Trance oder Hypnose bietet der Inkubationsschlaf den Vorteil, dass man nach dieser Seelenwanderung immer ganz normal wieder aufwacht.

 

Ungefährlich ist es aber trotzdem nicht. Deshalb kann ich hier vor Selbstversuchen ohne die Anleitung eines erfahrenen Schamanen nur eindringlich warnen. Wenn die Kontrolle verloren geht, kann man in immer wieder kehrende schreckliche Alpträume hinein geraten, die einen schließlich in den Wahnsinn treiben können.

Und wenn solche Probleme auftreten, ist ein Psychologe oder Psychiater keine wirkliche Hilfe - es sei denn, man möchte gerne eine längere Zeit unter dem Einfluss schwerer Psychopharmaka in einer geschlossenen Anstalt verbringen. Die Diagnose lautet dann: paranoide Schizophrenie.

 

Wenn man im Traum - mit welcher Methode auch immer - mit einer Parallelwelt in Kontakt tritt, erlebt man immer wieder Situationen, die mit nichts bekanntem in einem irgendwie vernünftigen Zusammenhang stehen. Dabei bleibt es völlig unklar, wann und wo sich diese Dinge ereignen.

Dann muss man es unbedingt vermeiden, in diese Teile der Parallelwelten immer wieder hinein zu geraten, und sollte so schnell wie möglich wieder vergessen, was man dort gesehen hat.

Nur wenn es Anhaltspunkte gibt, die mit aktuellen Situationen in Verbindung stehen, kann das Gesehene hilfreich sein. Schamanen lernen ihr ganzes Leben lang, wie man mit solchen Seelenwanderungen oder schamanischen Reisen umgehen muss. Dazu gehört auch ein umsichtiger Umgang mit Drogen - Ja, so etwas ist möglich, wenn es nicht wieder nur darum geht, mit einer Sucht möglichst viel Geld zu verdienen.

 

Wenn Sie sich als Leser nun fragen, wo ich die vorstehende "Weisheit" her habe, möchte ich dazu nur erklären, dass ich die Methode des Inkubationsschlafes vor allem zum Klarträumen nutzte. Dabei nutze ich den Traum, um bei technischen Konstruktionen weiter zu kommen und wissenschaftliche Zusammenhänge zu verstehen. Ich wechsle dann nicht direkt in eine andere Parallelwelt, sondern forsche und konstruiere im Schlaf weiter.

Dabei kommen mir immer wieder einmal Eingebungen, die ich im wachen Zustand niemals hätte. Natürlich ist dabei die Versuchung groß, auch einmal andere Dinge auszuprobieren - was ich dann gelegentlich auch mache. Nur gelegentliche Alpträume treiben niemanden in den Wahnsinn. Das ist hier so ähnlich wie mit dem Alkohol und mit anderen Drogen.

4.1.1 Schutzengel

Schamanische Reisen oder Zauberei gehören in unserer Gesellschaft in die Welt der Phantasie. Es gibt für sie nach der anerkannten Wissenschaft keine Erklärung, und deshalb kann oder darf es so etwas auch nicht geben. Auch als gläubiger Christ hat man sich mit solchen Dingen nicht abzugeben. Wer es dann ausprobiert und Probleme damit bekommt, wird schnell als Geisteskrank eingestuft.

Warum verkaufen sich aber dann Geschichten wie die von Harry Potter weltweit massenhaft? Und warum sind wir nicht alle schon lange überzeugte Atheisten? Ist das vielleicht doch nicht alles nur Phantasie oder Unsinn?

 

Eine weit verbreitete Vorstellung ist - entgegen aller wissenschaftlichen Erkenntnisse - die von einem Schutzengel. Diese Vorstellung kommt daher, dass man immer wieder, wenn man vor einem Unfall oder ähnlichen bewahrt wurde, den Eindruck hat, als wäre man irgendwie gewarnt worden, oder irgendeine unbekannte Macht hätte einen von dem bösen Ereignis fern gehalten. Deshalb möchte ich nachfolgend erzählen oder erklären, wie ein Taxifahrer mit Hilfe der Parallelwelten zum Schutzengel werden kann. Man denke sich also folgende kleine Geschichte:

 

Ich habe für meinen Urlaub eine Flugreise gebucht. In der Nacht vor dem Abflug träume ich in allen Einzelheiten, wie das Flugzeug in der Luft in Schwierigkeiten gerät und schließlich abstürzt. Die Panik unter den Fluggästen und den gesamten Absturz erlebe ich dabei so, als wäre ich wirklich dabei. In Schweiß gebadet wache ich dann von dem Alptraum auf. Was hat das zu bedeuten? Ich bin doch schon öfter geflogen und hatte nie Angst davor. Eigentlich freue ich mich doch auf den Urlaub - endlich mal wieder zwei Wochen am Mittelmeer.

Ich mag zwar die Türken nicht besonders, aber in Antalya ist es sehr schön - und auch preiswert. Deshalb soll es dort hin gehen. Ich esse ja auch Döner. Was hat aber dieser Sch.--Traum zu bedeuten? Ist er vielleicht eine Warnung, irgendwie ein Blick in die Zukunft? Droht vielleicht wirklich ein Absturz?

Sollte ich versuchen, diesen Flug zu verhindern, und damit mich und die vielen Passagiere vor dem Tod retten? Wenn ich aber von dem Traum erzähle, mache ich mich doch nur lächerlich. Man wird mich für verrückt halten. Am besten ist, ich behalte den Traum für mich. Außerdem ist sowieso bald das Taxi da. Ich sollte mich also anziehen und erst einmal in Ruhe frühstücken.

 

Was mein Verstand nicht wissen will, das weiß jetzt mein Unterbewusstsein. In der Parallelwelt, die vor unserem "Jetzt" das Universum durchlaufen hat, ist das Flugzeug abgestürzt. Dabei bin ich wie alle anderen Passagiere und die Besatzung des Flugzeugs ums Leben gekommen. Das habe ich nun in meinem Traum wieder gesehen.

Damit ich mich nicht lächerlich mache oder als verrückt da stehe, unternehme ich jedoch nichts. Mein Unterbewusstsein weiß aber, dass dieses Flugzeug auch in dieser Parallelwelt wieder abstürzen wird. Es unternimmt niemand etwas um das zu verhindern.

 

Das weiß mein Unterbewusstsein, da es bereits mit dem Piloten des Flugzeugs und mit den Mechanikern am Flughafen, die für die Sicherheit zuständig sind, telepathisch in Kontakt getreten ist. Während ich also frühstücke und auf das Taxi warte, hat mein Unterbewusstsein längst die Initiative ergriffen. Es hat telepathisch Kontakt mit dem Taxifahrer aufgenommen.

Als früh am Morgen sein Wecker piept, wird er nicht richtig wach. Im Halbschlaf schaltet er den Wecker ab, dreht sich um und schläft weiter. Viel zu spät wacht er dann auf. Er wundert sich: wieso hat der Wecker nicht funktioniert? Ich muss ihn wohl nicht richtig gestellt haben.

Daran, dass er ihn im Halbschlaf abgestellt hat, erinnert er sich nicht. Die Zeit drängt. Der Taxifahrer ruft die Zentrale an und sagt, dass er verschlafen hat und jetzt sofort los fährt. Dann zieht er sich so schnell an, wie er kann, setzt sich in seinen Wagen und fährt los.

 

Ich bin lange mit dem Frühstück fertig. Inzwischen hätte das Taxi längst da sein müssen. Also rufe ich bei der Zentrale an. Da sagt man mir, dass der Fahrer verschlafen hat und jetzt unterwegs ist. Mir bleibt also nichts anderes übrig als zu warten.

Endlich kommt das Taxi. Ich bin sauer und begrüße den Taxifahrer nur knapp. Der sagt: "Eigentlich wollte ich mit Ihnen gemütlich über die Landstraße zum Flughafen fahren, aber dafür ist die Zeit jetzt ziemlich knapp. Wir sollten die Autobahn nehmen. Da gibt es zwar immer wieder Stau, aber ich denke, dass wir dort trotz Stau schneller voran kommen. Sind sie mit der Autobahn einverstanden?"

Ich brülle wütend: "Wo und wie Sie fahren, ist mir egal. Bringen sie mich nur rechtzeitig zum Flughafen. Als Taxifahrer müssen Sie ja wohl wissen, wo immer Stau ist."

 

Dem Taxifahrer ist nun sehr unwohl. Er weiß nämlich genau, dass die Autobahn morgens um diese Zeit immer komplett "dicht" ist. Für ein "Rennen" über die Landstraße mit Radarfalle und Strafzettel hat er aber überhaupt keine Lust. Es fehlen nur noch zwei Punkte in Flensburg, bis der "Lappen" weg ist.

Soll er ihn nun einmal wieder für einen eiligen Fahrgast aufs Spiel setzten? Ärger hat er ja sowieso schon. Was macht es da noch, wenn der Fahrgast das Flugzeug verpasst? Hinzu kommt, dass mein und sein Unterbewusstsein längst telepathisch erfahren haben, dass sich auf der Autobahn ein gewaltiger Stau abzeichnet.

 

Also drängt es den Taxifahrer regelrecht dort hin. Aus dem Radio ist von einem solchen Stau erst einmal noch nichts zu erfahren. So kommt es, wie es kommen muss. Auf der Autobahn geht absolut nichts. Das Taxi steckt fest. Erst jetzt gibt es eine Meldung im Radio - zu spät. Die Fahrt dauert über zwei Stunden. Auf der Landstraße hätte es etwas mehr als eine halbe Stunde gedauert.

Als ich dann aus dem Taxi aussteige, rollt das Flugzeug gerade auf die Startbahn. Also erst einmal umbuchen und dann wieder nach hause. In den Urlaub geht es dann am nächsten Tag gegen Mittag. Ich bin wütend und denke: warum hat dieser Trottel nur verschlafen? Und dann auch noch diese schwachsinnige Idee mit der Autobahn!

 

Am Abend kommt dann in den Nachrichten im Fernsehen der Schock. Das Flugzeug, das ich heute morgen verpasst habe, ist abgestürzt - irgendwo über dem Mittelmeer zwischen Griechenland und der Türkei ist es passiert. Mehr weiß man noch nicht. Plötzlich brach der Funkkontakt ab, und das Flugzeug verschwand aus der Radarüberwachung.

Da wurde doch der Taxifahrer, dieser Trottel, auf den ich so wütend war, zu meinem Schutzengel! Wenn der nicht verschlafen hätte, und es nicht diesen gewaltigen Stau auf der Autobahn gegeben hätte, wäre ich jetzt tot.

 

Am nächsten Tag geht dann mit dem Taxi alles glatt, und ich fliege mit einem unangenehmen Gefühl im Bauch in den Urlaub. Hätte ich vielleicht den Absturz doch irgendwie verhindern können, wenn ich rechtzeitig zum Flughafen gekommen wäre und dort von meinem Traum erzählt hätte. Vielleicht hatten ja einige der anderen Passagiere den selben Traum. Die hätten dann vielleicht auch davon erzählt. Dann hätte man doch das Flugzeug noch einmal besonders gründlich überprüft und möglicherweise einen technischen Defekt gefunden. So hätte man den Absturz doch vielleicht verhindern können. Aber war überhaupt ein technischer Defekt die Ursache? Man weiß doch noch gar nichts.

Warum fühle ich mich nur bei dem Flug in den Urlaub so unwohl? Ich weiß doch, dass zwei Abstürze kurz hintereinander unwahrscheinlicher sind, als zwei Hauptgewinne im Lotto. Ich brauche doch wirklich keine Angst zu haben. Oder ist es irgendwie ein schlechtes Gewissen?

Aber es hat doch der Taxifahrer verschlafen, und es gab diesen Stau. Um irgendwie einzugreifen, wäre ich doch sowieso zu spät zum Flughafen gekommen. Nur eine Sache ahne ich nicht im geringsten: mein Unterbewusstsein kennt die Ursache des Absturzes!

 

Der Mechaniker, der für die Sicherheit des Leitwerks zuständig war, hat große Probleme mit seiner Familie. Seine Frau hat die Scheidung eingereicht, und sein Sohn hat Drogenprobleme. Darüber wissen seine Kollegen und sein Chef aber nichts. Die Probleme belasten ihn sehr. Also versucht er, bei seiner Arbeit einfach nur zu "funktionieren".

Von irgendwelchem Ärger, Diskussionen mit seinem Chef oder ähnlichem will er absolut nichts wissen. Bei der Überprüfung der abgestürzten Maschine hat er aber eine etwas merkwürdige Stelle am Leitwerk entdeckt. Einem unerfahrenen Mechaniker wäre die überhaupt nicht aufgefallen. Irgendwie hatte er den Eindruck, dass sich dahinter ein Riss in einem tragenden Teil verbergen könnte.

Es war aber mehr eine ungewisse Ahnung als etwas wirklich sichtbares. Normalerweise hätte er diese Beobachtung gemeldet und eine genauere Untersuchung des Leitwerks veranlasst. Das hätte natürlich Folgen gehabt: mit größter Wahrscheinlichkeit eine Verzögerung des Starts um mehrere Stunden, obwohl schließlich an dem Leitwerk alles in Ordnung war. Dann hätte er sich bei seinem Chef für seine Entscheidung rechtfertigen müssen.

 

Der hat ihn aber schon mehrfach ermahnt, seine Arbeit sorgfältiger zu machen. Eine Folge seiner familiären Probleme. Also dachte er: die Scheidung, das Drogenproblem, und dann soll ich mich noch für eine Fehlentscheidung rechtfertigen, weil ich neben der Spur bin und einen Riss sehe, wo höchst wahrscheinlich keiner ist. Also hat er seine Beobachtung für sich behalten - wohl mit einem etwas schlechten Gewissen, aber mit der Hoffnung, dass er sich einen möglichen Riss einfach nur einbildet.

Was mein Unterbewusstsein nun weiß, wird später niemand erfahren. Ich selbst erfahre es ja auch nicht. Ich spüre nur dieses unangenehme Gefühl. Dass ich nichts erfahre, ist gut so, denn unser Unterbewusstsein ist einfach nur egoistisch. Deshalb hat es dafür gesorgt, dass nur ich nicht mit dem Flugzeug abstürze. Die anderen Fluggäste und die Besatzung des Flugzeugs sind meinem Unterbewusstsein nämlich völlig egal.

 

Bezüglich des Flugzeugs ereignet sich in den nächsten Tagen und Wochen folgendes: Das Wrack liegt in großer Tiefe auf dem Meeresgrund. Das einzige Teil, das man mit einem Tauchroboter von dort herauf holt, ist der Flugschreiber. Der Aufwand für die Bergung des ganzen Flugzeugs wäre sehr groß.

Deshalb verzichtet man darauf. Im Flugschreiber ist nur der Verlauf des Absturzes und nichts über einen versteckten Riss am Leitwerk dokumentiert. Also bleibt die Ursache des Unglücks weiter ungeklärt.

Der Mechaniker verliert kein Wort über das, was er an dem Flugzeug entdeckt hat. Wem nützt es auch, wenn er nun deswegen seine Arbeit verliert? Davon wird keiner der Fluggäste und keiner von der Besatzung wieder lebendig. Das ständige Schweigen belastet ihn aber für den Rest seines Lebens schwer.

Trotzdem bekommt er sein Leben wieder irgendwie in den Griff und behält seine Arbeit als Flugzeugmechaniker. Er bringt die Scheidung hinter sich und schafft es, seinen Sohn von den Drogen weg zu bringen. Dabei nimmt er sich fest vor, einen solchen Fehler wie mit dem Leitwerk niemals wieder zu machen, egal wie groß der Druck sein mag, der auf ihm lastet.

 

Diese kleine erfundene Geschichte erlebte auf ähnliche Weise vor langer Zeit eine Frau. Sie hatte eine Überfahrt nach Amerika auf der Titanic gebucht. In der Nacht träumte sie dann den Untergang dieses Schiffes mit allen Einzelheiten. Es war so, als wenn sie selbst dabei gewesen wäre. Am nächsten Tag verpasste sie ähnlich wie ich in der kleinen Geschichte die Abfahrt des Schiffes.

Als sie später in den Zeitungen las, was Überlebende vom Untergang berichteten, war es genau so, wie sie es geträumt hatte. Offensichtlich hatte sie den Untergang der Titanic mit allen Einzelheiten in ihrem Traum voraus gesehen. In der vorherigen Parallelwelt war sie also an Bord des Schiffes. In dieser Welt sorgte aber etwas dafür, dass sie nicht auf das Schiff kam. Sie hatte also einen Schutzengel, wie man üblicherweise sagt.

 

Dieser Traum vom Flugzeugabsturz oder vom Untergang der Titanic spricht doch recht eindeutig für eine Existenz der Parallelwelten. Wenn man die Zukunft voraus sieht, dann sieht man das, was wahrscheinlich passieren wird oder passieren kann - eben das, was in einer vorherigen Parallelwelt bereits geschehen ist. Dabei ist es selten so deutlich, wie in dem Beispiel mit der Titanic oder in meiner kleinen Geschichte.

Oft sind es nur recht unklare Bilder und es fehlt scheinbar jeder Zusammenhang. Wenn man aber erkennt, dass man möglicherweise etwas voraus gesehen hat, sollte man danach handeln. Ein Flugzeug zu verpassen, ist doch erheblich weniger tragisch, als damit abzustürzen und zu Tode zu kommen.

Wenn der voraus geahnte Absturz dann doch nicht eintritt, was sicherlich in den meisten Fällen so sein wird, sollte man sich einfach darüber freuen, dass nichts Schlimmes passiert ist. Was ist denn so Schlimmes daran, wenn man einen Flug umbucht und einen Tag später in den Urlaub kommt?

 

Wichtig ist aber doch folgende Erkenntnis: Die Geschehnisse in den Parallelwelten ändern sich über die Zeit. Wenn man also aus einer vorherigen Parallelwelt etwas erfährt, kann man in das Geschehen eingreifen und dessen Verlauf beeinflussen. So kann man gewissermaßen aus Fehlern etwas lernen, die erst in der Zukunft eintreten werden. Oft erfolgt so etwas völlig unbewusst, wie hier in dem Beispiel mit dem Taxifahrer.

Was könnte man aber vielleicht alles erreichen, wenn man solche Bilder oder Visionen aus der Zukunft mehr beachten und häufiger danach handeln würde. Wenn ein Blick in die Zukunft aber als Spinnerei angesehen und Menschen mit Visionen für verrückt erklärt werden, kommt eben vieles so, wie es in der vorherigen Parallelwelt auch schon gekommen ist.

Wenn niemand eingreift, verändert sich von einer Parallelwelt zur nächsten nichts. Dann behält die Materie einfach ihre alte Gestalt und "sortiert" sich nicht neu, wenn sich beim Übergang zwischen den Welten Raum und Zeit vermischen oder vertauschen.

4.1.2 Religionen

Die mögliche Existenz von Parallelwelten erklärt fast alle religiösen Vorstellungen: eine unsterbliche Seele, das Eintreten in ein 'Jenseits' nach dem Tod, den Kreislauf der Wiedergeburt in Hinduismus uns Buddhismus, das Gefühl, immer wieder von einer höheren Macht geführt zu werden oder einen Schutzengel zu haben, und vieles mehr.

Wir finden auch eine Erklärung dafür, warum wir überhaupt schlafen und träumen. Den Schlaf selbst könnte man ja noch als eine Methode zum Regenerieren des Körpers ansehen. Aber welchen Sinn hätten dann die Träume? Als Möglichkeit, außerhalb des Bewusstseins mit anderen Parallelwelten in Verbindung zu treten, haben sie jedenfalls eine wichtige Funktion bei unserer Orientierung durch das Leben und damit auf den Ablauf der Evolution.

 

Sind es nicht letztlich unsere Träume, aus denen sich wichtige Veränderungen in unserem Leben ergeben? Warum haben wir überhaupt Flugzeuge gebaut? Gott hat die Menschen doch nicht zum Fliegen erschaffen - oder vielleicht doch? Warum soll man sich denn keine Flügel zusammen bauen, wenn man von Natur aus keine hat? Jedenfalls hat die Fliegerei mit dem Traum vom Fliegen begonnen.

Die Menschen sahen die Vögel durch die Luft fliegen, und träumten davon, das auch zu können. Dann begannen sie, Flugmaschinen zu konstruieren, zu bauen und zu testen. Und heute sind die Flugzeuge schneller und größer als jeder Vogel. Wäre da aber nicht am Anfang dieser Traum gewesen, würden wir doch statt zu fliegen immer noch schön gemütlich zu Fuß gehen.

 

Welches Ansehen haben aber Träumer in unserer heutigen Gesellschaft? Eigenschaften wie "Flexibilität" oder "Teamfähigkeit" werden jedenfalls viel höher eingestuft als die Fähigkeit, neue Ideen und Konzepte in unsere Gesellschaft einzubringen. Wer immer wieder träumt und über diese Träume nachdenkt, hat kein offenes Ohr für die Wünsche seiner Teamkollegen. Die gehen ihm einfach nur ständig auf die Nerven. Das ist für ihn nichts anderes als Stress. Sicherlich brauchen wir für bestimmte Aufgaben auch starke Teams. Und es gibt natürlich auch gesellige Menschen, die sich in einem Team wohl fühlen.

Wer aber viele Träume und Ideen hat, wünscht sich einfach nur Kollegen, die seine Ideen teilen und ihm bei ihrer Umsetzung in die Realität helfen. Dann werden die Aufgaben einmal verteilt, und jeder macht in Ruhe für sich alleine seine Arbeit. Es wird also auch gemeinsam an einer Sache gearbeitet, nur ohne diesen viel gepriesenen Teamgeist.

Und wenn nicht ständig sehr schnell auf irgendwelche neuen Situationen reagiert werden muss, funktioniert diese einfache Aufteilung der Arbeit doch sehr gut. Ein Konstruktionsbüro ist nun einmal nicht die Notaufnahme eines Krankenhauses. Und was für den einen anregend wirkt, kann für einen anderen extrem aufregend oder nervig sein.

 

Wenn sich dann jemand gestresst und genervt immer mehr von seinen Kollegen abwendet, tauchen plötzlich Begriffe auf wie "Realitätsverlust" auf. Was ist das nur für ein Unwort? Wie soll denn die Realität verloren gehen? Man kann sich doch nur maßlos enttäuscht und genervt von ihr abwenden. Dann ist die Realität nicht verloren, sondern einfach nur völlig uninteressant und unwichtig geworden.

Vielleicht führt diese vorab beschriebene Entwicklung auch oft zu der heute immer häufiger auftretenden Demenz. Dann verändert sich nicht zuerst das Gehirn so, dass man alles vergisst, sondern man will von nichts mehr etwas wissen, sodass sich das Gehirn daraufhin entsprechend verändert.

Wenn das so sein sollte, wären jedenfalls die teuren Medikamente gegen Alzheimer letztlich hinaus geworfenes Geld. Ich muss hierbei an das Hörgerät meiner Mutter denken. Sie wollte einfach nichts mehr hören, und deshalb konnte bei ihr auch das beste Hörgerät nicht richtig funktionieren.

 

Wir erleben heute in unserer Gesellschaft eine immer schnellere Veränderung. Damit weicht das, was wir in unseren Träumen in der vorherigen Parallelwelt sehen, immer mehr von der Realität ab. Es wird für uns also immer schwerer, einen genügend großen Teil unserer Träume im richtigen Leben umzusetzen. So entstehen Versagensängste, und das Selbstbewusstsein wird immer schwächer. Ein Teufelskreis beginnt: Enttäuschung - Frustration - Resignation - Depression.

Und was macht die Medizin dagegen? Da gibt es erst einmal wieder teure Medikamente, die letztlich nicht wirklich helfen. Sie wirken ähnlich wie Drogen. Also betäuben sie doch nur und ändern nichts. Dann gibt es Therapien, bei denen versucht wird, den Betroffenen in eine Welt zurück zu holen, deren moralische Werte für ihn völlig sinnlos und bedeutungslos geworden sind.

Da kann doch der Erfolg nur eher mäßig sein und nicht lange anhalten. Ich denke, ein Schamane, der die verloren gegangene Seele einer Person zurück holen will, ist da vielleicht eher auf dem richtigen Weg.

 

Es sind natürlich nur einige Menschen von der beschriebenen Entwicklung betroffen. Ihre Anzahl nimmt aber stetig zu. Und es sind vor allem diejenigen, die mit ihren Träumen und Ideen viel verändern könnten. Und so beobachten wir, dass sich in unserer Welt zwar sehr viel verändert, diese Änderungen aber letztlich nirgendwo hin führen. Da haben viele den Eindruck, dass der einzige Sinn dieser ganzen Aktivitäten ist, nur immer mehr Geld zu verdienen.

Unsere Träume und Ideen passen einfach nicht mit dem zusammen, was die Welt derzeit in Bewegung hält. Trost in der Religion finden wir dabei auch immer weniger. Wenn nämlich beispielsweise über christliche Nächstenliebe immer nur viel geredet wird, aber kaum jemand sie in seinem Leben wirklich praktiziert, fällt es immer schwerer, irgendwie daran zu glauben. Und mit der Angst vor der ewigen Verdammnis in der Hölle bekommt man heute kaum noch jemanden in eine Kirche, wo man ihn dann mit Predigten, Orgelmusik, Weihrauch und Gesang einlullen kann.

Zum Einlullen gibt es zudem deutlich attraktivere Alternativen wie Fernsehen, Radio oder zielloses "Surfen" im Internet. Auch von Toleranz wird meistens nur geredet. Wenn ich mich nämlich bei einem Pfarrer als überzeugter Heide bekenne, lässt der mich deutlich spüren, dass ich in dessen Gemeinde nichts mehr verloren habe.

Also ist doch offensichtlich der Glaube bei den Mitgliedern seiner Gemeine so schwach, dass er fürchten muss, ich könnte sie als überzeugter Heide von ihrem Glauben ab bringen. Dabei will ich das gar nicht. Ein Heide PRAKTIZIERT die Toleranz. Bei ihm kann jeder glauben, an was er will.

 

Manchmal frage ich mich, ob ich mich vielleicht besser fühlen würde, wenn ich glauben könnte - ich kann es aber nicht! Was die Vertreter einer Religion erzählen, die ihre Mitglieder vor noch nicht allzu langer Zeit mit Gewalt zum Bekenntnis gezwungen hat, MUSS für mich irgendwie gelogen sein. Also KANN ich es nicht glauben. Auch das, was in der Bibel steht, ist das Ergebnis einer Jahrhunderte andauernden Auswahl und Zensur, bei der aus der ursprünglichen Botschaft Jesu ein für uns heute ziemlich unverständlicher Kult aus Auferstehung und heiliger Dreifaltigkeit wurde.

Das belegen Texte auf Schriftrollen aus frühchristlicher Zeit. Luther übersetzte auf der Wartburg die Fassung der Bibel, die in seiner Zeit vom Vatikan als gültig und richtig frei gegeben war. Diese Version bildet bis heute die Grundlage des Glaubens in beiden christlichen Kirchen.

 

So nach und nach ist bei mir an die Stelle des nicht glauben Könnens die Suche nach der Wahrheit mit den Methoden einer ganzheitlichen Wissenschaft getreten. Heute bin ich froh, dass ich mich nicht mehr irgendwie genötigt fühle, meinen Mitmenschen gegenüber so tun zu müssen, als würde ich glauben. Als Atheist habe ich mich nie bekannt, da ich keiner bin. Also bezeichne ich mich nun als HEIDE, der sich zu keiner Kirche oder religiösen Gemeinschaft bekennt.

Dabei bin ich überzeugt, dass es eine schöpferische Kraft oder ein schöpferisches Prinzip in unserem Universum gibt. Die Möglichkeit der Existenz von Parallelwelten ist in Kombination mit der Telepathie eine plausible wissenschaftliche Erklärung dafür. Ein Gott, der gewissermaßen das Kommando über das alles haben soll, ist für mich aber nichts anderes als nur eine Methode, den Machtanspruch eines Herrschenden zu rechtfertigen.

So etwas sollte in einer Zeit der Demokratien längst der Vergangenheit angehören. Leider ist es aber nicht so. Also spielen sich immer wieder vom Volk gewählte Vertreter zu Diktatoren auf. Wahrscheinlich fühlen sie sich dabei irgendwie als Vertreter Gottes.

 

Hinzu kommt wohl auch die weit verbreitete Überzeugung davon, dass ein Volk eine starke führende Hand braucht, wenn doch die ganze Welt ohne einen allwissenden und allmächtigen Gott im Chaos untergehen würde. Dabei kann man überall in der Natur beobachten, wie sich das Leben immer wieder selbst organisiert. Das ist in der Wissenschaft schon lange bekannt, nur von den Vertretern der Religionen will kaum jemand etwas davon wissen. Wenn sich aber in der Natur bereits Bakterien und Viren selbst organisieren können, warum soll das dann bei einem Volk aus intelligenten Lebewesen nicht auch möglich sein?

Mit dem Glauben an einen allmächtigen Gott kommt aber immer dann, wenn die Ordnung in der Welt außer Kontrolle zu geraten scheint, der Wunsch nach einer straff organisierten Führung des Staates auf. Hinzu kommt, dass Personen, die sich zur Wahl stellen, häufig wenig kompetent sind. Dann hat man schnell den Eindruck, dass die Kontrolle verloren geht.

Und je unübersichtlicher die Lage beim Volk wird, desto mehr Gehör finden dann beim Wähler Kandidaten, die nach einer starken führenden Hand rufen - Obwohl wir doch alle wissen, was Leute wie Napoleon, Stalin oder Hitler angerichtet haben. Mit den Demokratien haben wir ein Werkzeug, mit dem wir uns selbst organisieren können. Warum ist aber die Mehrheit immer noch zu dumm, es effektiv zu nutzen?

 

Wie bereits erwähnt, lassen sich mit der Existenz der Parallelwelten praktisch alle religiösen Vorstellungen von der Existenz einer Seele oder einem Leben nach dem Tod erklären. Das buddhistische und hinduistische Rad der Wiedergeburt spiegelt sicherlich das Prinzip der Parallelwelten am besten wieder. Jede Person oder Seele lebt in der nächsten Parallelwelt immer wieder neu.

Und wie gelangt man aus diesem ewigen Rad der Wiedergeburt heraus? Wenn eine Seele irgendwann in einer Parallelwelt nicht mehr geboren wird, existiert diese Seele oder Persönlichkeit nicht mehr. Sie tritt dann in das ewige Nichts oder Nirwana ein, wie es im Buddhismus angestrebt wird. Eine weitere Möglichkeit wäre, einen Zustand des Bewusstseins zu erlangen, der sich über alle Parallelwelten hinweg erstreckt. Das wäre ein Platz bei den Göttern, wie es der Hinduismus lehrt.

Nach dem christlichen Glauben und auch bei den Juden und Moslems lebt die Seele nach dem Tod erst einmal im Reich der Toten oder im 'Jenseits', bevor sie irgendwann im Paradies wieder aufersteht. Also entsprechen alle anderen Parallelwelten außer unserer Zeitschale des 'Jetzt' diesem 'Jenseits' oder dem Reich der Toten.

Darin warten die Seelen dann auf das jüngste Gericht, das über den Eintritt in das Paradies entscheidet. In welcher Parallelwelt sich dieses Paradies befinden soll, bleibt aber völlig unklar. Wenn man jedoch davon ausgeht, dass sich immer alles zum Besseren hin verändert, sollten sich irgendwann einmal paradiesische Verhältnisse einstellen.

 

Nur was bedeutet eigentlich 'besser'? Und wer entscheidet, was gut oder böse ist? Bei den Christen, Juden und Moslems ist es ein allmächtiger und allwissender Gott. Ist aber die Frage nach gut oder böse nicht letztlich von der Sichtweise jedes einzelnen abhängig? Dann stellt sich die Frage, auf wessen Seite Gott eigentlich steht. Und wie böse ist dann der Teufel?

Wenn man sich die Welt heute und Jahrtausende zurück so ansieht, gewinnt man schnell den Eindruck, dass Gott wohl eher den Reichen und Mächtigen zugetan ist. Oder gibt es ihn vielleicht als urteilende und befehlende Instanz überhaupt nicht? Als Heide darf ich diese Frage stellen, die mich als Christ zum Ketzer machen würde. Im nächsten Kapitel wird auf diese Frage beim Thema Prophezeiungen noch einmal detailliert eingegangen.

 

Kommen wir nun zu den so genannten Naturreligionen. Da wird von christlichen Würdenträgern gerne behauptet, bei ihnen bete man geschnitzte Holzfiguren und ähnliches als Götter an. Wohin richten aber Christen oft ihren Blick, wenn sie beten? Ist es nicht eine Holzfigur, die an ein Kreuz genagelt ist?

Die einen beten also Götzen an, und was machen dann die anderen? Da haben doch wohl die Moslems erkannt, dass hier vielleicht etwas nicht ganz richtig ist, und richten beim Gebet ihren Blick einfach nur nach Mekka. Oder sehe ich das vielleicht irgendwie falsch?

Die Götter der Heiden oder Naturreligionen haben nichts mit einem allwissenden und allmächtigen Gott zu tun. Den gibt es bei ihnen nicht. Die vielen Götter sind nicht anderes als Ahnen, die ein besonderes Wissen oder besondere Fähigkeiten hatten. Da gibt es zum Beispiel Thor, der sich mit Blitz und Donner gut auskannte und mit diesem Wissen eine besondere Macht besaß.

Andere Ahnen, die sich entsprechend mit anderen Erscheinungen in der Natur gut auskannten, wurden ebenfalls zu Göttern. An die Stelle des Gebets tritt bei Naturreligionen die Befragung der Ahnen oder Götter mit Hilfe von Zauberkräften oder schamanischen Reisen. Das ist die Aufgabe der Druiden oder Schamanen. Wie das mit den Parallelwelten zusammen hängt, habe ich vorstehend bereits beschrieben.

 

Für uns heute sind unsere nordischen und germanischen Ahnen wie Odin, Freia oder Thor mit dem Christentum weitgehend in Vergessenheit geraten. Bei Wissenschaftlern treten an ihre Stelle vielleicht Personen wie Euler, Bernoulli, Einstein, Fermi, Schrödinger, Planck und viele andere. Auch sie haben ein besonderes Wissen und damit besondere Fähigkeiten erlangt - nur ein bekennender Christ darf sie nicht in den Stand eines Gottes erheben. Verehrt werden sie aber trotzdem.

Für mich als neuzeitlicher Heide macht es keinen Sinn, die alten Rituale der Germanen oder Nordvölker wieder aufleben zu lassen. Durch den starken Einfluss der christlichen Lehre ist jeder echte Bezug zu ihnen verloren gegangen. Ein Abhalten der alten Rituale nach der Überlieferung wäre dann nicht mehr als nur ein Schauspiel. Also tritt für mich die Suche nach dem Aufbau und der Funktion des gesamten Universums mit wissenschaftlichen Methoden an die Stelle der Religionen.

Dabei sehe ich die Welt nicht als eine Art Königreich, das von einem allmächtigen Gott als Alleinherrscher regiert wird, sondern ein Universum, in dem sich alles, vom Wachsen eines Kristalls bis hin zu intelligenten Lebewesen, selbst organisiert und so immer weiter entwickelt. Dabei kommt zu Darwins Prinzip der Evolution das sehr wichtige Prinzip der Symbiose und eine ebenfalls sehr wichtige Verbindung aller Lebewesen im Universum auf geistiger Ebene.

 

Die Parallelwelten sind dabei eine Erweiterung dieser geistigen Verbindung in Raum und Zeit über unsere erfassbare Welt hinaus. Unbewusst werden wir schon immer von den Parallelwelten beeinflusst und irgendwie geleitet. Gläubige Menschen empfinden das wohl als das unsichtbare Wirken Gottes. Was wäre aber, wenn wir nach und nach lernen würden, die Informationen aus den Parallelwelten gezielt zu unseren Vorteil zu nutzen?

Zauberer, Hexen oder Druiden bei den Kelten, Germanen und Nordvölkern konnten das jedenfalls bereits vor sehr langer Zeit. Schamanen bei Naturvölkern können es immer noch. In früheren Zeiten sprach man nicht von Parallelwelten, sondern von einer 'Anderswelt', in die man in Trance bei schamanischen Reisen geistig hinüber wechseln konnte - man denke hier an das 'Avalon' in der Artus-Geschichte.

Als sich das Christentum im frühen Mittelalter in Europa ausbreitete, fürchtete man sich sehr vor den Fähigkeiten der heidnischen Zauberer, Hexen und Druiden. Deshalb wurden sie immer mehr bekämpft und verfolgt. Ihr für die christliche Lehre gefährliches Wissen wurde als Werk des Teufels bezeichnet.

Wer sich damit beschäftigte, würde angeblich ewig in der Hölle schmoren, statt ins Paradies zu kommen. Diese Angst vor einer ewigen Verdammnis und den Qualen der Hölle hat die heidnischen Praktiken schließlich so gut wie vollständig aus unserem Leben verdrängt.

 

Welchem Teufel dienten aber die Zauberer, Hexen oder Druiden? Wer ist denn letztlich gut oder böse? Der Papst oder dieser angebliche Teufel? Kann es beispielsweise 'gut' sein, wenn ein Papst die Verhütung verbietet und damit ein explosionsartiges Wachsen der Bevölkerung mit Armut, Hunger und sinnloser Ausbeutung der Ressourcen fördert?

Wenn eine selbst ernannte "Elite" von dem Hunger und der Armut der anderen profitiert, ist der Papst für diese "Elite" sicherlich 'gut'. Für alle anderen hat er aber doch eher etwas von einem Teufel - aber mehr dazu im nächsten Kapitel.

 

Nun ging es in diesem Kapitel wieder einmal mehr um gesellschaftliche Aspekte und Religionen als um Parallelwelten. Da die physikalischen Zusammenhänge mit sechs Dimensionen in einem Kontinuum aus Raum und Zeit für uns kaum irgendwie vorstellbar sind, habe ich diese Dinge hier nur sehr knapp dargestellt. Zudem wissen wir über die Zustände, die es aufgrund des Titanic-Paradoxons zwischen den Parallelwelten geben muss, so gut wie nichts.

Im Manuskript zu meinem Buch 'Die andere Seite des Universums' habe ich mehr über Parallelwelten geschrieben. Dazu sind aber wie beim 'Zeitschalenmodell' einige Kenntnisse aus der Atomphysik und Quantenmechanik für das Verständnis erforderlich.

Hier geht es mir vor allem um das Prinzip und dessen Auswirkungen auf unser Leben, was ich hoffentlich einigermaßen verständlich gemacht habe. Im nächsten Kapitel geht es darum, welche Bedeutung Vorhersagen über unsere Zukunft oder Prophezeiungen im Zusammengang mit den Parallelwelten haben können.

4.1.3 Prophezeiungen

Es gibt Grundsätzlich zwei verschiedene Formen für die Vorhersage der Zukunft: Ein Wahrsager erzählt einer Person etwas über deren Zukunft, oder ein Prophet macht Vorhersagen über die Zukunft eines ganzen Volkes. Bei einer einzelnen Person betrifft es immer nur die Lebenszeit dieser Person, bei einem ganzen Volk kann eine Prophezeiung dagegen Jahrhunderte oder sogar Jahrtausende in die Zukunft reichen. Mit der Telepathie und der Existenz der Parallelwelten ist bei beiden Varianten ein Blick in die Zukunft durchaus möglich. Deshalb wird nachfolgend näher darauf eingegangen.

Bei einem Wahrsager ist es noch recht einfach. Es muss lediglich, wie in der kleinen Geschichte mit dem Schutzengel, bei dessen Kunden ein Kontakt zur selben Person in einer nachfolgenden Parallelwelt hergestellt werden. Dabei sorgt der Wahrsager mit Hilfe der Telepathie dafür, dass dieser Kontakt unterbewusst bei seinem Kunden zustande kommt. Die Informationen aus der zukünftigen Parallelwelt erhält er dann ebenfalls auf telepathischem Weg. Im bewussten Zustand kann niemand telepathisch Kontakt aufnehmen.

 

Also muss sich ein Wahrsager entweder in Trance versetzen, oder ein Hilfsmittel verwenden, das ihm einen Zugang zum Unterbewussten verschafft. Sicherlich ist es für die meisten Wahrsager nicht einfach - beispielsweise bei einem konzentrierten Blick in eine Kristallkugel - in Trance zu kommen. Also verwenden sie Hilfsmittel wie Karten legen oder aus der Hand lesen. Dabei hat jede Karte oder jede Linie auf der Hand eine spezielle Bedeutung, die einen großen Spielraum zu einer Auslegung bietet. Bei dieser Auslegung leistet nun das unterbewusst telepathisch erfahrene seinen Beitrag.

Für einen telepathischen Kontakt muss zunächst einmal ein gemeinsames Muster in den Gehirnen des Wahrsagers und seines Kunden hergestellt werden. Das geschieht bei einem längeren Gespräch. Dann legt der Wahrsager die Karten oder liest aus der Hand. Bei dem, was er dabei erzählt, lässt er sich möglichst von unterbewussten Eingebungen leiten. Ob und wie gut die Vorhersage dann zutrifft, hängt davon ab, wie intensiv der telepathische Kontakt ist, und ob eine Verbindung zu einer Parallelwelt überhaupt zustande kommt.

 

Es kann durchaus sein, dass der Wahrsager lediglich irgendwelche Träume oder Ängste seines Kunden telepathisch empfängt und in seine Auslegung der Karten oder Handlinien einfließen lässt. Ein erfahrener Wahrsager spürt dann hoffentlich, dass es irgendwie nicht so richtig glatt läuft, und ist entsprechend vorsichtig mit seinen Äußerungen.

Wenn man jemandem seine ärgsten Alpträume vorher sagt, kann das jedenfalls sehr böse Folgen haben. Ein guter Wahrsager wird es also seinem Kunden sagen, wenn er nichts Vernünftiges erfahren kann. Ein telepathischer Kontakt funktioniert nun einmal nicht immer und nicht mit jedem.

Leider sind viele Menschen nicht ehrlich. Wenn man also jemanden geschickt ausfragt und dann das vorher sagt, was er gerne hören möchte, kann man mit einem entsprechenden Honorar gutes Geld verdienen. Wer also nicht auf einen Betrüger herein fallen will, sollte mehrere Wahrsager aufsuchen und diese testen. Dabei sollte man sich bei dem Gespräch genau merken, was man dem Wahrsager mitgeteilt hat.

Wenn der dann von Ereignissen im Leben des Kunden erzählt, über die eindeutig nicht gesprochen wurde, kann man in der Regel sicher sein, dass ein telepathischer Kontakt zustande gekommen ist. Es gibt aber auch betrügerische Wahrsager, die ihre Kunden wie Detektive ausspionieren. Doch so etwas lohnt sich sicherlich nur, wenn das Honorar entsprechend hoch ist - also ist besonders bei berühmten Wahrsagern Vorsicht geboten.

 

Selbst wenn ein Kontakt zu einer zukünftigen Parallelwelt zustande kommt, muss das nicht geschehen, was man dort vorher sieht. Das Gesehene kann sowieso nur hilfreich sein, wenn es einen eindeutigen Bezug zu bekannten Ereignissen gibt.

Zudem sollte man bedenken, dass man in den Ablauf der Ereignisse eingreifen kann. Was in einer zukünftigen Parallelwelt bereits geschehen ist, muss sich nicht wiederholen. Es ist also sinnvoll, das Gesehene nicht als vorher bestimmtes Schicksal, sondern eher als Warnung oder Aufruf zur Vorsicht aufzufassen.

Kein wirklich fähiger Wahrsager wird sich übrigens selbst die Karten legen. Ohne eine kritische Distanz zu der Person, deren Zukunft voraus gesagt werden soll, fließen in die Auslegung unterbewusste Wünsche oder Ängste ein. Wer dann beispielsweise Angst vor einer bevor stehenden Situation hat, verstärkt diese nur.

 

Zu Wahrsagern ist mit dem Vorstehenden das Wichtigste zunächst beschreiben. Kommen wir also zu den Propheten. Sie sehen nicht die Zukunft einer einzelnen Person voraus, sondern Ereignisse, die ein ganzes Volk betreffen und weit in die Zukunft hinein reichen. Bei einem Kontakt zu einer zukünftigen Parallelwelt können also viele Generationen zwischen dem Propheten und seiner Kontaktperson in der anderen Parallelwelt liegen.

Da es gemeinsame Muster in den beteiligten Gehirnen geben muss, ist die Kontaktperson mit großer Wahrscheinlichkeit ein Nachfahre des Propheten. Dann wurden die gemeinsamen Bilder oder Gedanken entweder vererbt oder durch Erzählen von Generation zu Generation weiter gegeben.

Da ein Prophet keine unmittelbaren Aussagen zu seinem eigenen Leben trifft, kann man davon ausgehen, dass die erwähnte Distanz, die verhindern soll, dass persönliche Wünsche oder Ängste verstärkt werden, grundsätzlich vorhanden ist. Wie sieht es aber mit den Wünschen oder Ängsten des gesamten Volkes aus? Die betreffen doch den Propheten genau so wie jeden anderen in seinem Volk.

 

Wenn man Jahrhunderte oder Jahrtausende zurück blickt, gibt viele Propheten, die man hier als Beispiel anführen könnte. Wenn man nicht sehr weit in der Zeit zurück blickt, ist sicherlich Nostradamus der berühmteste. In seine seltsamen Verse lässt sich allerdings sehr viel hinein interpretieren, sodass man an seinem Beispiel die Zusammenhänge wohl kaum erklären kann.

Daher möchte ich als Beispiel eine Prophezeiung anführen, die wahrscheinlich jeder Christ ohne einen Gang zu einer Bibliothek nachlesen kann: die Offenbarung des Johannes. Grob zusammen gefasst geht es in der Offenbarung um den Sieg über das Böse in einer letzten großen Schlacht, das jüngste Gericht und den Einzug in ein 'neues Jerusalem', in dem dann paradiesische Zustände herrschen sollen.

 

Johannes verkündigte seine Offenbarung vor etwa zweitausend Jahren. Bis zum jüngsten Gericht und dem Einzug in das 'neue Jerusalem' könnten noch weitere Jahrtausende vergehen. Um Informationen aus der Parallelwelt zu erhalten, in der sich diese Dinge ereignen sollen, müsste Johannes den Kontakt zu einem viele Generationen nach ihm lebenden Nachfahren hergestellt haben.

Möglich wäre es zwar, doch es erscheint recht unwahrscheinlich. Es wird - nicht nur von den Zeugen Jehovas - vermutet, dass wir heute in der Endzeit leben, die Johannes verkündet. Dann würde es nicht mehr lange dauern, bis der Teufel für tausend Jahre gebunden wird, und danach die letzte Schlacht und das jüngste Gericht stattfinden. Das passt natürlich gut damit zusammen, dass mit der Überbevölkerung und der Ausbeutung aller Ressourcen auf eine ökologische und gesellschaftliche Katastrophe zu gesteuert wird.

 

Als Hinweis darauf wird gedeutet, dass in der Offenbarung von einem sprechenden Bild eines Tieres die Rede ist, das man anbeten müsste. (Offenbarung 13. 15 - 18: "Und es ward ihm gegeben, dass es dem Wille des Tieres den Geist gab, dass des Tieres Bild redete und machte, dass alle, welche nicht des Tieres Bild anbeteten, getötet würden. Und es macht, dass die kleinen und großen, die Reichen und Armen, die Freien und Knechte - allesamt sich ein Malzeichen geben an ihre rechte Hand oder an ihre Stirn, dass niemand kaufen oder verkaufen kann, er habe denn das Malzeichen, nämlich den Namen des Tiers oder die Zahl seines Namens. Hier ist Weisheit! Wer Verstand hat, der überlege die Zahl des Tiers; Denn es ist eines Menschen Zahl, und seine Zahl ist 666.")

Das sprechende Bild, das man anbeten müsse, soll dabei für ein Fernsehgerät oder den Bildschirm eines Computers stehen. Das Tier wäre dann dann das Internet, wie man es mit dem Wissen von vor zweitausend Jahren auffassen könnte. Damit wäre auch gleich eine Deutung der Zahl 666 gegeben. Im Hebräischen stehen für die Zahlen die Buchstaben des Alphabets. Der hebräische Buchstabe für die Zahl sechs sieht unseren W sehr ähnlich.

Also steht WWW für 666. Dann kann nur derjenige etwas kaufen oder verkaufen, der das Malzeichen an seiner rechten Hand oder auf der Stirn trägt. Also muss doch wohl eine Scheckkarte oder ein unter der Haut eingepflanzter Chip damit gemeint sein. Oder wie wäre es vielleicht mit einer Iris-Erkennung bei einem Geldautomaten als Erklärung für ein Zeichen an der Stirn?

 

Kann man aber wirklich aus diesen wenigen Worten in der Offenbarung solche Schlüsse ziehen? Für die Zahl 666 gibt es beispielsweise auch eine andere sehr plausible Erklärung: Es ist die Zahl eines Menschen. Und wenn man Weisheit besitzt, erfährt man auch, zu welchem Menschen diese Zahl gehört: Es ist der König Salomo. (2. Chronik 9. 13; 1. Könige 10. 14: "Des Goldes aber, das Salomo in einem Jahr gebraucht ward, war 666 Zentner.")

Könnte also die Zahl 666 einfach nur für Geld oder Edelmetall stehen? Wer dann das Geld oder den Reichtum nicht anbetet, also den Sinn und Zweck seines Lebens nicht danach ausrichtet, wird getötet - oder man lässt ihn einfach krepieren. Ist das nicht schon seit sehr langer Zeit eine weit verbreitete Praxis der Reichen und Mächtigen?

 

Wenn man sich mit dem übrigen Text der Offenbarung auseinander setzt, findet man immer wieder deutliche Hinweise auf Babylon. Die Juden zur Zeit des Johannes waren von der Zerstörung Jerusalems durch die Babylonier und ihre Knechtschaft in Babylon stark traumatisiert. Für sie führten die Babylonier ein extrem sündiges Leben. Sie gaben sich nur ihren Gelüsten hin und beteten neben vielen Göttern auch Geld und Reichtum - von dem sie wohl mehr als genug besaßen - regelrecht an.

Das passte überhaupt nicht zu dem, was JHWH, (Jahwe oder Jehova) der Gott der Juden, von seinem Volk erwartete. Da konnte doch schnell aus Geld und Reichtum dieses Tier oder Ungetüm werden, das alle Menschen grausam beherrscht. Trugen vielleicht bereits die Babylonier ein Zeichen an der rechten Hand oder auf der Stirn, an dem sie erkannten, ob jemand zu ihnen gehörte, wenn sie Geschäfte machen wollten?

Wie hoch war Babylon damals schon entwickelt? Besaßen sie vielleicht bereits eine Technik, die man irgendwie mit einem sprechenden Bild in Verbindung bringen konnte? Johannes muss doch gar nicht bis in unsere Zeit voraus gesehen haben, damit ihm solche Bilder in den Sinn kamen.

 

Zur Zeit des Johannes waren Jerusalem und das Land der Juden von den Römern besetzt. Für einen gläubigen Juden waren die kaum besser als die Babylonier. Auch sie waren reich und beteten zu vielen Göttern. Und auch sie hatten einen extrem sündigen Lebenswandel. Also sehnte man sich nach einem neuen Jerusalem, in dem alles ausschließlich nach den Regeln und Gesetzen ihres Herrn JHWH ablaufen sollte.

Der lange erwartete Erlöser war ja seiner Erwartung nicht gerecht geworden. Also hatte man dafür gesorgt, dass die Römer ihn ans Kreuz nagelten. Das geschah aber dummerweise am Freitag vor dem Passah-Fest, an dem keiner an einem Kreuz hängen sollte. Also wurde Jesus noch vor dem Fest vom Kreuz wieder abgenommen und in einer Gruft beigesetzt. An ein Kreuz genagelt kann ein Mensch aber nachweislich mehrere Tage überleben. Also war es gar nicht so unwahrscheinlich, dass Jesus wieder auferstehen und die Gruft verlassen würde.

 

Aus dieser Auferstehung entwickelte sich dann die Vorstellung, dass die alle Menschen in nicht allzu ferner Zukunft vom Tode wieder auferstehen und dann nur die "Guten" von ihnen - oder besser die, die JHWH gefallen - in ein neues Jerusalem einziehen dürfen. Bekanntlich gilt ja ein Prophet im eigenen Land nichts. Also blieb für die meisten Juden Jesus einfach nur ein Hochstapler oder Betrüger.

Auf den Erlöser warten sie heute noch. Einige sahen aber in der Auferstehung Jesu einen Beweis dafür, dass alle Menschen irgendwann einmal auferstehen würden und, falls sie sich als "gut" erweisen, in ein neues Paradies einziehen würden. Das alte Paradies war ja mit der Verführung durch die Schlange, der Vertreibung und den Sündenfall unwiederbringlich verloren gegangen. Also machten sie sich auf, um ihre Botschaft in die ganze Welt zu verbreiten.

 

Die Unterdrückung durch die Römer, bei der Jerusalem schließlich wieder zerstört wurde, brachten viele, vor allem ärmere Juden zu der Überzeugung, dass das verkündete Ende bald eintreten würde. Für uns muten die vielen Bilder mit Feuer, Zerstörung, Drachen und Ungetümen sehr utopisch an, wie aus einem Fantasyfilm. Bei den damaligen Menschen waren solche Vorstellungen aber weit verbreitet. Neben den Bildern aus Babylon verarbeitete Johannes auch Eindrücke aus seiner Gegenwart und Ereignisse aus früheren Prophezeiungen in seiner Offenbarung - wie beispielsweise die apokalyptischen Reiter.

Als sich später das Christentum zu einer mächtigen Religion entwickelte, wurde vieles umgedeutet. Zunächst einmal durfte Jesus kein Jude mehr sein, da man die Juden hasste. Also erhob man ihn zu einem Gott, was aber zunächst einmal dem ersten Gebot widersprach. Um diesen Widerspruch aufzulösen, ersann man die heilige Dreifaltigkeit. So wurde Jesus, Gott (oder JHWH oder Jahwe oder Jehova) und der heilige Geist ein und dasselbe. Das versteht niemand, da es göttlich ist, und es eben deshalb kein Mensch jemals verstehen kann.

 

Dann musste Jesus als Gott natürlich auch in den Himmel gefahren sein. Dieses doch wohl großartige Ereignis wird im gesamten Neuen Testament nur mit zwei knappen Sätzen erwähnt. Ist das nicht irgendwie seltsam? (Markus 16. 19: "Und der Herr, nachdem er mit ihnen geredet hatte, ward aufgehoben gen Himmel und sitzet zur rechten Hand Gottes." Lukas 24. 51: "Und es geschah, da er sie segnete, schied er von ihnen und fuhr auf gen Himmel.") Man kann also vermuten, dass die Apostel die Himmelfahrt nicht wirklich beobachteten. Nach seiner letzten Predigt zeigte sich Jesus ihnen nie wieder. Offensichtlich schlossen sie daraus, das er in den Himmel gefahren war. Wenn er von den Toten auferstehen konnte, musste er auch dazu fähig gewesen sein.

Für einen gläubigen Christen mag die vorstehende heidnische Sichtweise sicherlich sehr starker Tobak sein. Rein logisch betrachtet könnte es aber durchaus so abgelaufen sein. Ein Jude würde mir da wohl eher zustimmen. Kommen wir aber nun zu den Parallelwelten zurück. Wenn ein Kontakt zu einer mehrere Jahrtausende in der Zukunft liegenden Parallelwelt über viele Generationen hinweg eher unwahrscheinlich erscheint, ergibt sich ein anderer Aspekt für die Vorhersage eines Propheten.

 

Bei Johannes stammen vermutlich ein großer Teil der Bilder, über die er erzählt, von der Zerstörung Jerusalems durch die Babylonier, von der Knechtschaft in Babylon, aus früheren Prophezeiungen und aus der damaligen Gegenwart. Damit schließt Johannes aus Ereignissen in der Vergangenheit und Gegenwart auf das, was irgendwann in der Zukunft geschehen soll - in etwa so, wie wir es bei der Wettervorhersage machen.

Damit wäre diese Prophezeiung kein direkter Blick in die Zukunft, - oder genauer gesagt in eine Parallelwelt, in der unsere Zukunft bereits Gegenwart ist - sondern sie ist eine Aufgabe oder ein Programm für das, was die angehörigen eines Volkes oder einer Glaubensgemeinschaft in der Zukunft machen sollen.

Dass man schlicht und einfach nichts bewirkt, wenn man nur abwartet und betet, dürfte Johannes jedenfalls nicht unbekannt gewesen sein. Also wollte er den Anhängern seines neuen Glaubens für die bald bevor stehende Zukunft eine Anleitung für ihr Handeln auf den Weg geben. Dabei sollte folgendermaßen vorgegangen werden:

 

Zuerst sollte lange abgewartet werden, bis sich die Zustände zur völligen Unerträglichkeit mit unermesslicher Grausamkeit und Brutalität verschlimmern. Dann sollen mit Gottes Hilfe "die Zornschalen ausgeschüttet werden", sodass Feuer vom Himmel fällt und die vom Bösen beherrschte Welt möglichst vollständig zerstört wird. Dann soll der Teufel für tausend Jahre gebunden und danach wieder frei gelassen werden, damit er alle verführt, deren Glauben für ein Leben im neuen Jerusalem zu schwach ist. Erst dann soll der Teufel in einer letzten Schlacht endgültig vernichtet werden. In einem jüngsten Gericht sollen dann die ausgewählt werden, die in das neue Jerusalem einziehen dürfen. Allen anderen drohen Tod und ewige Verdammnis.

 

Die beschriebenen Ereignisse sind eine klare Anleitung für das, was die Menschen mit Gottes Hilfe tun sollen. Und wenn sie das tun, werden diese Ereignisse auch irgendwann einmal stattfinden. Was wird aber sein, wenn die Auserwählten in das neue Jerusalem eingezogen sind? Ist dann dieses neue Jerusalem der einzige Ort, an dem Menschen Leben? Die Bibel hat eine klare Antwort darauf: NEIN!

(Offenbarung 22. 16: "Denn draußen sind die Hunde und die Zauberer und die Hurer und die Totschläger und die Abgöttlichen, die liebhaben und tun die Lüge.") Es gibt also ein Leben außerhalb dieses von Gott verheißenen Ortes, auch wenn er - vorsichtig ausgedrückt - als äußerst unattraktiv dargestellt wird.

Als Heide frage ich da wieder: was ist wirklich gut oder böse? Oder besser ausgedrückt: für WEN ist das neue Jerusalem gut? Was ist mit den Hunden, Zauberern, Hurern, Totschlägern und Abgöttlichen? Sind die wirklich nur böse, oder haben die einfach nur eine andere Moral, die mit der im neuen Jerusalem einfach nicht zusammen passt?

Wer lügt hier eigentlich? Diejenigen, die draußen bleiben, werden sicherlich behaupten, dass sie ehrlich sind, und man im neuen Jerusalem die Lüge praktiziert - vielleicht die Lüge von einem Gott, den es so gar nicht gibt, wie man ihn sich dort vorstellt.

 

Nach dem 'Prinzip der gegensätzlichen Pole' des Zeitschalenmodells MUSS es ein Gegenstück zu einem neuen Jerusalem geben, wenn dort paradiesische Zustände herrschen sollen. Also hat die Bibel hier wieder einmal absolut recht. Es stellt sich doch nur die Frage, was wir als Menschheit eigentlich wollen. Sollen wieder einige wenige in Wohlstand und Luxus leben, während es den vielen anderen so schlecht geht, dass sie zu Hunden, Zauberern, Hurern, Totschlägern und Abgöttlichen verkommen?

Was macht denn bei uns die Menschen zu Verbrechern? Ist es nicht oft ein armseliges Leben, bei dem sie keinen anderen Weg sehen, der sie dort hinaus führen könnte? Oder sind sie wirklich einfach nur böse? Wirklich böse sind doch wohl eher Bosse einer Drogenmafia, die aus guten Hause stammen, als irgend welche Kleinkriminelle. Und was ist der Inhaber eines Industriebetriebes, der seine Arbeiter bis auf das Blut ausbeutet, wie es nicht nur am Anfang der Industrialisierung eine weit verbreitete Praxis war?

 

Wohin will uns also Johannes mit seiner Offenbarung führen? Vielleicht zu einer ganz großen brutalen und grausamen Revolution, nach der dann wieder alles genau so sein wird wie vorher? Oder wird es dann vielleicht noch viel schlimmer sein? Nach den 'Prinzip der gegensätzlichen Pole' muss es in der Hölle umso grausamer sein, je schöner es im Paradies ist. Ein Pendel kann um einen kleinen Betrag oder auch sehr heftig hin und her schwingen. Als ein Prinzip der Natur kommt es aber niemals völlig zur Ruhe und bleibt auch niemals bei einem maximalen Ausschlag - hier also bei gut oder böse - stehen.

Es gibt nichts Gutes ohne etwas Böses, so wie es kein Licht ohne Dunkelheit geben kann. Ohne etwas Böses könnten wir das Gute nicht erkennen, so wie wir auch nur dann das Licht sehen, wenn es sich von der Dunkelheit abhebt. Also können wir das Böse doch niemals wirklich bezwingen - auch dann nicht, wenn wir den Teufel für tausend Jahre irgendwo fest setzen.

Wir können es lediglich aus unserem eigenen Leben verbannen und irgendwo hin schaffen, wo wir es nicht mehr sehen - bis es dann irgendwann, wenn das Pendel mit einer neuen "Offenbarung" zurück schwingt, aus Wut und Verzweiflung erbarmungslos und mit grenzenloser Brutalität über uns her fällt. Wer gequält wird, sinnt auf Rache. Und je grausamer die Qualen sind, desto erbarmungsloser und brutaler wird irgendwann die Rache sein.

 

Wäre es also nicht sinnvoller, statt eines Paradieses ein Gleichgewicht zwischen gut und böse anzustreben, mit dem wir alle vernünftig leben können. Wir können das Pendel zwischen den beiden gegensätzlichen Polen nicht anhalten. Aber wir können dafür sorgen, dass die Ausschläge dieses Pendels nicht zu groß werden.

Alle Menschen gleich machen zu wollen, ist jedoch Unsinn. Sie sind nun einmal nicht gleich. Und das ist auch gut so. Versuchen wir es, sie gleich zu machen, werden einige immer gleicher sein als die anderen, was das Pendel dann immer mehr zum Schwingen bringt. Aus gut und böse wird dann gleich und gleicher, wie es Orwell bei seiner 'Farm der Tiere' sehr treffend beschreibt. So viel sollten wir vom Kommunismus gelernt haben - zumindest vom real existierenden.

 

Vielleicht sollten wir statt gut und böse, arm und reich oder gleich und gleicher Unterschiede wie denkend und schaffend, künstlerisch kreativ und funktionell praktisch oder religiös spirituell und logisch mathematisch anstreben. Dann kann jeder dieser Teile der Gesellschaft ihren speziellen Anteil an einem großen und vielseitigen Ganzen leisten. Mit unserer Technik können wir heute fast alle Arbeiten, die viel Kraft erfordern oder extrem eintönig sind, von Maschinen oder Robotern verrichten lassen - mehr dazu später in den Kapiteln 4.3 und 4.4. Wir brauchen also keine Sklaven.

Wir könnten JEDEN in unserer Gesellschaft entsprechend seinen Neigungen und Fähigkeiten KREATIV tätig sein lassen. Wenn jemand beispielsweise lange Zeit an einem Fließband immer nur die selben Handgriffe verrichtet, kann dessen Seele krank werden, da sie bei der Arbeit von dem universellen schöpferischen Prinzip der Natur ausgeschlossen ist. Wer dann nicht in seiner Familie oder bei seinen Freunden einen Sinn seines Daseins oder eine Aufgabe findet, verzweifelt irgendwann. Er wird körperlich oder geistig schwer krank und fällt damit schließlich der Allgemeinheit zur Last.

 

Sicherlich ist die Vorstellung darüber, was kreativ ist und was nicht, individuell sehr unterschiedlich. Aber gerade das könnte man doch ausnutzen, sodass jeder möglichst die Tätigkeit verrichtet, bei der er sich wohl fühlt, und nicht die, bei der er glaubt, das meiste Geld verdienen zu können, oder die, mit der ein geerbter Reichtum erhalten werden soll.

Sicherlich werden - wie bei den Elfen in meinen Geschichten - nicht viele Menschen Freude daran haben, beispielsweise in einem Bergwerk zu arbeiten. Aber wir haben doch Maschinen und Roboter. Dann können wir die Bergwerke so gestalten, dass nur wenige Menschen - zur Wartung und Reparatur der Maschinen und Roboter - dort hinein müssen. So lange aber Geld und Reichtum - oder dieses Ungetüm, dessen Name die Zahl 666 ist - das Maß aller Dinge ist, werden wir das beschriebene Ideal niemals erreichen.

Mit der bereits erwähnten Umdeutung der christlichen Lehre durch den Vatikan wird auch verständlich, warum die von Johannes für die nahe Zukunft vorher gesagten Ereignisse bis heute nach etwa zweitausend Jahren noch nicht eingetreten sind. An die Stelle der Vorbereitung auf das baldige Ende trat eine ständige Angst vor den ewigen Qualen in der Hölle, die jeden gläubigen Christen gefügig machte.

Die Kaiser, die zusammen mit den Adeligen ihr Volk mit Gewalt unterdrückten, wurden vom Papst eingesetzt und gesegnet. Damit wurde das Unrecht zu "Gottes Willen", dem sich kaum jemand mehr zu widersetzen wagte. Und wer es doch wagte, wurde schließlich auf dem Scheiterhaufen verbrannt.

 

Für mich als Heide erscheint es als eher gut, dass diese Prophezeiung (noch) nicht umgesetzt wurde. Wenn sich eine "Elite" irgendwo ihr eigenes "Reich" oder ein "Paradies" schaffen will, erweckt das in mir sehr unangenehme Gefühle. Ich muss an ein "tausendjähriges Reich" in einem "Germania" denken, das nur für so genannte "Arier" zugänglich ist.

Nach dem 'Prinzip der gegensätzlichen Pole' oder dem 'Prinzip der Nullsumme' MUSS es jedenfalls, wenn es ein Paradies gibt, auch immer eine Hölle geben. Ein "tausendjähriges Germania" ist also ohne ein KZ als Vernichtungslager oder den zweiten Weltkrieg gar nicht denkbar. Wollen wir aber so etwas? Ich will es jedenfalls nicht. Deshalb sollten wir akzeptieren, dass die "Wahrheit" nur irgendwo zwischen Paradies und Hölle liegen kann, und weltweit ein für alle akzeptables Gleichgewicht zwischen gut und böse anstreben.

 

Kommen wir nun noch kurz zu Nostradamus zurück. Wenn man von der Offenbarung des Johannes absieht, die am Ende seiner Prophezeiung gewissermaßen als Abschluss seiner Vorhersagen angeführt ist, gibt es bei ihm nichts, das irgendwie direkt auf ein Programm oder eine Anleitung für das Handeln der Menschen hinweist.

Seine seltsamen Verse sind zunächst einmal nichts weiter als eine extrem umfangreiche Aneinanderreihung von Bildern und Visionen. Angeblich soll eine chronologische Ordnung darin versteckt sein, die aber bis heute niemand wirklich verstanden hat.

Nostradamus hat angeblich seine Visionen mit Hilfe der Astrologie und Astronomie zeitlich zuordnen können. Wenn man jedoch im Traum oder Trance Bilder als Visionen empfängt, kann man in der Regel keine Hinweise darauf erkennen, wann oder wo sich das Gesehene ereignen könnte. Nur wenn es einem Bezug zu aktuellen oder vergangenen Ereignissen gibt oder ein bestimmter Ort zu erkennen ist, kann man die Ereignisse räumlich oder zeitlich zuordnen. Unter diesem Aspekt bleibt es also zweifelhaft, ob es eine chronologische Ordnung bei seinen Versen überhaupt gibt.

 

Eine weitere Frage ist, was in seinen Versen von Visionen aus der Vergangenheit oder aus zukünftigen Parallelwelten stammt, und was einfach nur Vorhersagen aufgrund aktueller Ereignisse sind. Ist die Erklärung dafür, dass viele seiner Vorhersagen tatsächlich eingetroffen sind, also die, dass er die Ereignisse wirklich in einer zukünftigen Parallelwelt gesehen hat, oder hat er seine Verse einfach nur so geschickt formuliert, dass man immer wieder etwas aus dem aktuellen Geschehen in sie hinein interpretieren kann?

Hierzu ein konkretes Beispiel: Meinte Nostradamus mit "Hister" wirklich Hitler? Oder war mit "der braune" oder "der wahnsinnige" irgend ein anderer gemeint? - Braun ist keine seltene Farbe und wahnsinnig sind nicht wenige. Als Hitler gerade an die Macht kam, brachte jedenfalls noch niemand diese Verse mit ihm in Verbindung.

Wenn irgendwelche Ereignisse immer erst hinterher mit seinen Versen in Verbindung gebracht werden, ist es ist ziemlich gleichgültig, ob Nostradamus irgend etwas voraus gesehen hat oder nicht. So lange niemand seine Verse wirklich versteht, sind sie nicht nur nutzlos, sondern sie könnten sogar gefährlich sein. Wenn man also glaubt, aus ihnen etwas heraus zu lesen, und dann entsprechend falsch handelt, dürfte das eher schaden als nützen.

Vielleicht steckt in den Versen des Nostradamus ja wie in der Offenbarung des Johannes so etwas wie eine Aufgabe oder ein Programm, das wir nur nicht erkennen, weil wir seine Ausdrucksweise nicht oder nicht mehr verstehen. Das könnte möglicherweise mit der von ihm angekündigten langen Friedenszeit nach vielen Unruhen und einer großen Schacht unter "Heinrich dem Glücklichen" zu tun haben. Sollen wir uns also auf diese unruhigen Zeiten und die große Schlacht vorbereiten und schließlich "Heinrich den Glücklichen" an die Macht bringen?

Nach dieser langen Friedenszeit soll es wieder Kriege und Naturkatastrophen geben, bis schließlich das eintreten soll, was Johannes in seiner Offenbarung vorher gesagt hat. Die Voraussagen der Nostradamus sollen bis zum Jahr 3797 reichen. Dieses Datum könnte das Ergebnis seiner astronomischen Berechnungen sein, bei denen er versuchte, die Ereignisse der Offenbarung zu datieren. Die Friedenszeit unter "Heinrich dem Glücklichen" soll es um das Jahr 2100 herum geben.

 

Damit ist das Wichtigste zum Thema Prophezeiungen beschrieben, das man unter dem Aspekt eines möglichen Kontaktes zu zukünftigen Parallelwelten anführen kann. Kurz zusammen gefasst entwickelt also der Verfasser einer Prophezeiung aus dem, was er in Träumen oder Visionen gesehen hat, ein Programm dafür, wie in der Zukunft gehandelt werden soll. Dabei fließen selbstverständlich seine Sichtweise der Welt und seine Ideale in die Prophezeiung mit ein.

Ob diese Träume und Visionen aus einer zukünftigen Parallelwelt stammen oder nur Schlussfolgerungen aus vergangenen Ereignissen sind, bleibt jedoch unklar. Wenn man also sein Handeln danach ausrichten möchte, sollte man möglichst viele Prophezeiungen zu Rate ziehen und, soweit möglich, mit dem Bezug zu aktuellen Ereignissen eingehend prüfen, bevor man Entscheidungen trifft. Letztlich kann es so immer nur eine grobe Richtschnur für unser Handeln geben.

4.2 Zeitmaschinen

Die Möglichkeit für den Bau einer Zeitmaschine ist ein uralter Traum. Mit den Parallelwelten, einem Elektronen-Potentialwirbel und der Elektro-Gravitation erscheint dieser Traum weniger utopisch, als man vielleicht denken mag. Eine Abschirmung des elektromagnetischen Feldes wie bei Schaubergers 'Repulsine' und 'fliegenden Untertasse' bildet nämlich bereits die theoretische Grundlage für die Funktion einer Zeitmaschine.

Hinzu kommt, dass jede interstellare Weltraum-Reise mit der Zeitdilatation nach Einstein und Lorentz bereits eine Zeitreise ist. Nach der Rückkehr ist auf der Erde eine viel längere Zeit vergangen als für die Astronauten im Raumschiff. Wenn es aber gelingen sollte, in eine andere Parallelwelt hinüber zu wechseln, wären Reisen in alle Richtungen durch die sechs dimensionale 'Raumzeit' hindurch möglich. Das entspräche dann dem, was in der Science-Fiction oft als 'Sprung durch den Hyperraum' bezeichnet wird.

 

Wenn man in eine andere Parallelwelt hinüber wechseln will, muss man nicht nur einen Teil des elektromagnetischen Feldes abschirmen, sondern man muss sich vollständig von den Kräften lösen, die alle Atome im Universum zusammen halten. Das ist im Prinzip mit einem Potentialwirbel zwischen zwei sich sehr schnell drehenden Scheiben möglich, wie er in Kapitel 3.3 Abbildung 3.3:1 dargestellt ist. In der Abbildung erkennt man bereits, wie sich in den beiden Wirbeln außerhalb der Scheiben jeweils zwei Elektron-Schalen gegenseitig durchdringen.

Nach dem Zeitschalenmodell muss diese Durchdringung senkrecht erfolgen. Dabei besteht jedes Elektron aus drei 'Strömen'. Bei zwei Elektronen sind es also insgesamt sechs 'Ströme' in den ebenfalls sechs Dimensionen der 'Raumzeit'. Wenn sich also diese beiden Elektronen auf einer großen Fläche wie der Oberfläche der beiden Scheiben gegenseitig durchdringen, sind auf dieser Fläche alle Dimensionen der Raumzeit vollständig ausgefüllt. Es kann also absolut nichts anderes die Fläche durchdringen.

 

Abbildung 4.2:1 zeigt in einer Raum-Zeit-Darstellung die Durchdringung zweier Elektronen e, wie sie bei den beiden sich drehenden Scheiben in Form von Elektronen-Schalen über die gesamte Fläche der Scheiben verteilt erfolgt. Zunächst sind wieder, wie bei den bisher gezeigten Raum-Zeit-Darstellungen, die drei Raum-Dimensionen R in der Waagerechten und die drei Zeit-Dimensionen Z in der Senkrechten aufgetragen.

Für eine rechtwinklige Durchdringung müssen die Elektronen jeweils um 45° aus der Zeitrichtung heraus schwenken. Das entspricht einer Verdrehung der Zeitrichtung Z um 45° zu einer neuen Richtung Z' in der 'Raumzeit'. Senkrecht dazu steht die ebenfalls um 45° gedrehte Raumrichtung R'. Das Elektron in dieser Richtung durchdringt dabei das andere wie ein Elektron-Neutrino νe', wobei seine drei 'Ströme' senkrecht zu denen des anderen Elektrons e' verlaufen.

 

Abbildung 4.2:1; Abschirmung mit Potentialwirbel

 

Mit der Durchdringung eines Elektrons e' und Elektron-Neutrinos νe' in einer um 45° verdrehten 'Raumzeit' R', Z' ergeben sich bei maximaler Dichte der Elektronen in den beiden Schalen zwei vollständig voneinander getrennte Bereiche in der 'Raumzeit'. Abbildung 4.2:2 zeigt, wie sich das auf das elektromagnetische Feld auswirkt. Links ist dabei das Feld im Inneren eines Raumschiffs gezeigt, wenn die Elektronen-Wirbel, wie in Kapitel 3.5 beschrieben, außen um die Hülle des Raumschiffs herum geführt werden.

Rechts ist das Feld zu allen anderen Atomen in der Umgebung gezeigt. Man erkennt, dass das der Anteil des Feldes von den Elektronen e zu den Protonen p der Atomkerne von außen in das Raumschiff hinein und aus dem Raumschiff heraus jeweils nicht vorhanden ist. Die beiden Elektronen des Wirbels e/ne', e/e' durchdringt dabei kein Feld. Also gibt es nichts, was das Raumschiff in Zeitrichtung Z fest hält. So kann es durch alle Zeit-Dimensionen der 'Raumzeit' hindurch an den beiden Elektronen des Wirbels e/ne', e/e' entlang gleiten.

 

Abbildung 4.2:2; Feld am Potentialwirbel

 

Wie sich ein Raumschiff von den Kräften lösen kann, die aus den Universum auf jedes Objekt wirken, ist also bereits gezeigt. Zu klären wäre aber noch, wie man dieses Raumschiff in Zeitrichtung durch die Parallelwelten hindurch steuern könnte. Wenn jede Verbindung zu den umgebenden Kräften gelöst ist, ergibt das ja zunächst einmal einen instabilen Zustand, in dem das Raumschiff unkontrolliert durch die Zeit-Dimensionen hindurch fallen könnte. Es gibt aber zwei Parameter, die man steuern kann: die Intensität des Wirbels und die Wirkung der Abschirmung.

Bei einem Stern wie unserer Sonne ist die Dichte der Elektronen im äußeren Wirbel so gering, dass es kaum eine abschirmende Wirkung gibt. Erst im inneren Wirbel um die Drehachse herum dringt kein Licht und damit auch kein elektromagnetisches Feld mehr hindurch, sodass die Sonnenflecken schwarz erscheinen. Mit der Dichte der Elektronen im Wirbel lässt sich also beeinflussen, wie stark die Abschirmung wirkt. So kann man auch mit einer unterschiedlich starken Abschirmung oben und unten eine antreibende Kraft für eine Bewegung in Raumrichtung erzeugen. Bei maximaler Wirkung oben und unten löst sich das Raumschiff von den umgebenden Kräften.

 

Mit der Intensität des Wirbels, die von der Drehzahl der beiden Scheiben abhängt, beeinflusst man die Stärke des elektromagnetischen Feldes und damit auch die Dichte der Materie im Inneren des Raumschiffs. Ist nun die Materie im Raumschiff dichter als in der Umgebung, bewegt sich das Raumschiff zu einer größeren umgebenden Dichte hin, wie ein schwerer Körper im Wasser nach unten sinkt. Ist sie dagegen weniger dicht, bewegt sie sich zu einer geringeren Dichte hin, wie eine Luftblase im Wasser aufsteigt. Mit zunehmender Dichte vergeht die Zeit langsamer.

Deshalb senden auch extrem Dichte Neutronensterne Radiowellen statt Licht aus. Wenn also die Zeit langsamer vergeht, bleibt das Raumschiff hinter der Zeit in der Umgebung zurück und sinkt in Richtung Urknall. Vergeht sie schneller, überholt das Raumschiff die Zeit in der Umgebung und steigt in Richtung Zusammenbruch der Materie auf. Ist der Unterschied in der Dichte gering, bewegt sich das Raumschiff entsprechend langsam durch die Zeit-Dimensionen.

 

Wenn wir also in die Vergangenheit reisen wollen, müssen wir die Dichte der Materie im Raumschiff mit der Intensität des Elektronen-Potentialwirbels vergrößern. Dabei verläuft die Zeit im Raumschiff langsamer als in der Umgebung, und das Raumschiff sinkt zu einer zum Urknall hin, also in der Vergangenheit, befindlichen Parallelwelt ab.

In Diagramm 4.2:1 ist das mit zwei in Richtung der Zeit-Dimensionen verlaufenden Balken dargestellt. Der untere Balken steht für die Umgebung, der obere für das Innere des Raumschiffs. In der unteren Skala ist die Zeit in der Parallelwelt n aufgetragen, in der das Raumschiff zu seiner Zeitreise aufbricht.

In der oberen Skala ist die Zeit in der nächsten Parallelwelt n-1 in der Vergangenheit aufgetragen. Dabei wurde angenommen, dass diese Parallelwelt n-1 vier Jahre nach der Parallelwelt n die Zeit-Dimensionen durchläuft, und die Dichte im Inneren des Potentialwirbels so eingestellt wurde, dass die Zeit genau halb so schnell abläuft, wie in der Umgebung.

 

Diagramm 4.2:1; Zeitreise

 

Wenn also acht Jahre vergangen sind, erreicht das Raumschiff die vier Jahre zurück liegende Parallelwelt. Nun könnten die Astronauten dort aussteigen, sich umsehen oder sogar etwas in dieser Parallelwelt verändern.

Wenn sie dann wieder einsteigen, können sie die Dichte im Inneren so weit herab setzen, dass die Zeit nun doppelt so schnell vergeht. Nach weiteren vier Jahren erreichen sie dann wieder die Parallelwelt n, in der sie ihre Zeitreise begonnen haben. Insgesamt sind dann zwölf Jahre vergangen.

 

Es weiß niemand, wie groß der Abstand zwischen den Parallelwelten ist. Wären es nur wenige Jahre, wie in Diagramm 4.2:1 dargestellt, könnte man im Laufe eines Lebens durch mehrere Parallelwelten hindurch in die Zukunft oder Vergangenheit reisen. Dabei ist zu bedenken, dass das Raumschiff während der gesamten Dauer der Reise komplett von der Umgebung abgeschnitten ist. Aus einem Fenster würde man immer nur in eine völlige Dunkelheit blicken.

Mit der Kürze unseres Lebens ist zudem der mögliche Aktionsradius bei Zeitreisen auf vielleicht maximal etwa vierzig Jahre eingeschränkt, wenn wir keine Reisezeiten von der Dauer mehrerer Generationen in Kauf nehmen wollen.

Es könnte aber sein, dass der Abstand zwischen zwei Parallelwelten mehrere hundert oder sogar mehrere tausend Jahre beträgt. Dann könnten viele Generationen vergehen, bis die Astronauten überhaupt erst die nächste Parallelwelt erreichen. Damit würde der Traum von einer Zeitmaschine wohl kaum einmal Wirklichkeit.

 

Die Beispiele mit dem Flugzeugabsturz zum Thema Schutzengel und der Titanic in Kapitel 4.1.1 und 4.1 lassen jedoch vermuten, dass der Abstand zur nächsten Parallelwelt maximal nur einige Jahre beträgt. Dann habe ich das mit dem Flugzeugabsturz in der kleinen Geschichte einige Jahre zuvor vollkommen unbewusst aus der zukünftigen Parallelwelt erfahren.

Als der Flug dann bevor stand, kam es mit dem Traum in mein Bewusstsein. Wäre der Abstand länger als mein Alter, müsste ich in dieser Geschichte die Information auf telepathischem Weg aus der Erinnerung eines meiner Vorfahren erhalten haben, der lange zuvor mit der zukünftigen Parallelwelt in Kontakt getreten war. Das wäre zwar möglich, erscheint aber eher unwahrscheinlich.

 

Wenn uns also einmal ein Raumschiff, wie in Kapitel 3.5 beschrieben, zur Verfügung steht, müssen wir zunächst mit Versuchen heraus finden, wie weit die nächste Parallelwelt von unserer entfernt ist. Wir schirmen also erst einmal das elektromagnetische Feld zur Umgebung hin vollständig ab. Dabei wird um das Raumschiff herum alles völlig dunkel - es dringt ja nichts durch die Abschirmung hindurch. Dann erhöhen oder verringern wir die Dichte in unserem Raumschiff und warten eine bestimmte Zeit.

Was geschieht aber dann, wenn wir die Intensität der Abschirmung wieder herab setzen? Ziehen uns dann die Kräfte aus der Umgebung in unsere Parallelwelt zurück oder in eine andere Parallelwelt hinein, oder stecken wir dann irgendwie im Bereich zwischen zwei Parallelwelten fest? Welche Kräfte könnten dabei auf uns wirken? Niemand weiß es.

 

Man solle es also bei diesen Versuchen so machen, wie heute bei unsicheren Missionen der Raumfahrt, und ein unbemanntes Raumschiff zu einer Zeitreise aufbrechen lassen. Dieses Raumschiff kann man mit mehreren Videokameras ausstatten, die Bilder in alle Richtungen aufzeichnen.

Den Ablauf der Reise steuert dann ein Computer. Wenn das Raumschiff dann unsichtbar wird und nach einiger Zeit - hoffentlich - wieder auftaucht, kann man aus den Videoaufzeichnungen schließen, was bei der Zeitreise geschehen ist.

Diese Versuche sollte man weit draußen im Weltraum durchführen. Dann gibt es in der unmittelbaren Umgebung nichts, was in einer anderen Parallelwelt anders sein könnte als in unserer. Ein kleines unbemanntes Raumschiff würde man dann weit draußen im Weltraum in der Nähe eines großen bemannten Raumschiffes zu der Zeitreise los schicken.

 

Wenn dann, nachdem das Raumschiff zurück gekehrt ist, in der Videoaufzeichnung nach dem Herabsetzen der Intensität der Abschirmung wieder der Weltraum mit den Sternen zu sehen ist, und das große Raumschiff nicht mehr in der Nähe ist, wurde eine andere Parallelwelt erreicht.

Vermutlich werden mehrere kleine unbemannte Raumschiffe für immer irgendwo hin verschwinden, bevor man schließlich heraus findet, wie ein Raumschiff ohne den Ort zu wechseln durch den Zwischenbereich, der die Parallelwelten voneinander trennt, hindurch gelangen kann.

Erst wenn das Durchdringen eines oder mehrerer Zwischenbereiche immer wieder problemlos funktioniert, kann man über eine bemannte Mission nachdenken. Wenn der Abstand zwischen den Parallelwelten groß ist, können sich die Versuche mit den kleinen unbemannten Raumschiffen über einen sehr langen Zeitraum hin ziehen - möglicherweise sogar über Jahrhunderte oder Jahrtausende.

 

Bei der beschriebenen Zeitreise erfolgt immer ein Wechsel in eine andere Parallelwelt. So können wir in unserer eigenen Zukunft oder Vergangenheit nichts verändern. Völlig paradoxe Handlungen, wie die, dass man in der Vergangenheit seine Großmutter erschlägt und dann deshalb selbst gar nicht mehr geboren werden kann, sind damit unmöglich. Wenn wir bei einer Zeitreise in einer anderen Parallelwelt etwas verändern, hat das auf unsere Welt keinen Einfluss.

Wir reisen ja nicht wirklich in der Zeit zurück, da die Zeit lediglich ein Maß für die Abfolge von Vorgängen und keine Eigenschaft der 'Raumzeit' ist. Deshalb sind wirkliche Sprünge in der Zeit für uns unmöglich. Bei einer Reise in die Vergangenheit reisen wir nur in eine Parallelwelt, in der das noch in der Zukunft liegt, was für uns die Gegenwart ist.

Die Zeit als Abfolge von Vorgängen oder 'absolute Zeit' läuft dabei immer weiter, im Raumschiff nur langsamer als in der Umgebung. Zu einer zehn Jahre zurück liegenden Parallelwelt würde die Reise also immer länger als zehn Jahre dauern.

 

Der Abstand zwischen den Parallelwelten könnte aber sehr viel größer sein als vielleicht zehn Jahre, oder es gelingt uns nicht, den Zwischenbereich zur nächsten Parallelwelt zu durchdringen. Es ist also damit zu rechnen, dass wir selbst dann, wenn uns entsprechende Raumschiffe zur Verfügung stehen, in absehbarer Zeit nicht einmal heraus finden, ob Zeitreisen überhaupt möglich sind.

Betrachtet man jedoch das, was zum in Kapitel 1.3 bereits erwähnten Philadelphia-Experiment bekannt ist, hat man das Prinzip einer Zeitmaschine zumindest ansatzweise vor langer Zeit bereits technisch umgesetzt.

Wenn es tatsächlich gelang, ein Schiff mit einem extrem starken Magnetfeld unsichtbar zu machen, hat man die für eine Zeitmaschine erforderliche vollständige Abschirmung des elektromagnetischen Feldes bereits vorgenommen. Dabei ist man offensichtlich sehr unwissend an die Sache heran gegangen, was zu den bekannten katastrophalen Folgen führte.

 

Wenn wir in Abbildung 4.2:2 auf der rechten Seite das elektromagnetische Feld zu der den Wirbel umgebenden Materie betrachten, erkennen wir, dass es keine Verbindung des Elektrons e der Materie zum Wirbel hin gibt. Also verläuft das von diesem Elektron e ausgehende Feld um den Wirbel herum zu den umgebenden Atomen.

Bei einem Beobachter kommt also ein Bild von den Objekten an, die sich hinter dem Wirbel befinden. Man schaut also gewissermaßen um den Wirbel herum. In dem elektromagnetischen Feld, das aus den Wirbel kommt, steckt kein Bild von dem, was sich im Inneren des Wirbels befindet.

Der Wirbel reflektiert auch kein Licht. Also erscheint alles, was vom Wirbel kommt, einfach nur schwarz - wie bei einem Sonnenfleck. Das Schwarze überlagert sich mit dem Bild, das vom Hintergrund um den Wirbel herum zum Beobachter gelangt. Damit wird der Wirbel und alles, was sich darin befindet, vollkommen unsichtbar - so, als wäre er überhaupt nicht vorhanden.

Das Beschriebene gilt für eine vollständige Abschirmung. Ist die Abschirmung nur teilweise, vermischt sich beim Beobachter das Innere des Wirbels mit dem Hintergrund. Mit zunehmender Wirkung der Abschirmung wird also das vom Wirbel umgebene Objekt immer durchsichtiger und schemenhafter, bis es schließlich vollständig aus dem Blickfeld verschwindet.

 

Wenn also das Schiff bei dem Philadelphia-Experiment komplett unsichtbar war, muss es allseitig eine annähernd vollständige Abschirmung des elektromagnetischen Feldes gegeben haben. Bei einer größeren oder kleineren Dichte der Materie im Inneren gegenüber der Umgebung hätte das Schiff also theoretisch für immer in einer anderen Parallelwelt verschwinden können.

Möglicherweise war die Abschirmung noch nicht ganz vollständig und dabei auch nicht auf allen Seiten exakt gleich stark. So gab es bei einer fast vollständigen Unsichtbarkeit eine sehr starke Kraft, die das Schiff in eine Richtung durch den Raum beschleunigte.

Damit konnte es in sehr kurzer Zeit an einen weit entfernten Ort gelangen. Auf das Schiff und die Besatzung wirkten dabei sehr große Kräfte. Zuerst war es die Beschleunigung durch die unterschiedlich starke Abschirmung. Dabei erreichte das Schiff eine sehr hohe Geschwindigkeit. Die betrug ein Vielfaches dessen, was ein Schiff bei normaler Fahrt erreichen kann. Dann setzte man vermutlich die Intensität der Abschirmung herab, sodass das Schiff dann vom Wasser extrem hart abgebremst wurde.

 

Eine andere mögliche Erklärung wäre, dass die Bewegung zu einem anderen Ort bereits durch den Zwischenbereich zwischen unserer und einer anderen Parallelwelt hindurch erfolgte. Das würde jedenfalls gut mit einer kompletten Unsichtbarkeit zusammen passen.

Welche Kräfte dann im Zwischenbereich auf das Schiff wirkten, kann niemand irgendwie abschätzen. Aus dem Wenigen, das zu diesem Experiment bekannt ist, erfahren wir auch nicht, wie es wirklich abgelaufen sein könnte. Eine Abschirmung des elektromagnetischen Feldes kann aber die Ereignisse erklären, die über dieses Experiment bekannt sind.

 

Die Unsichtbarkeit soll mit einem Drahtgeflecht um das Schiff herum erreicht worden sein, das von sehr starkem Strom bei extrem hoher Spannung durchflossen wurde. Das Drahtgeflecht entspricht dabei der Außenhaut des in Kapitel 3.5 beschriebenen interstellaren Raumschiffs. Wie bei der 'Repulsine' in Kapitel 3.4 beschrieben, wirkt diese Außenhaut wie eine Kondensatorplatte für die um sie herum strömenden Elektronen.

Statt mit einem Potentialwirbel zwischen zwei sich schnell drehenden Scheiben wurde bei diesem Experiment der senkrecht zueinander stehende Fluss der Elektronen vermutlich mit mehreren Tesla-Transformatoren in Gang gesetzt. Dabei könnte eine sehr schnelle Drehung des Magnetfeldes, wie sie ein Potentialwirbel bewirkt, mit einer Überlagerung mehrerer elektrischer Schwingungen erzeugt worden sein.

 

Es gibt also neben Schaubergers 'fliegenden Untertasse' auch andere technische Möglichkeiten zur Abschirmung des elektromagnetischen Feldes. Für die beiden sich entgegensetzt drehenden Scheiben ist bei sehr hohen Drehzahlen eine in einem Magnetfeld schwebende Lagerung notwendig. Wenn man also die beiden Scheiben durch Schwingungen in einem elektrischen Schaltkreis ohne bewegliche Teile ersetzen könnte, wäre das durchaus vorteilhaft.

Strebt man also eine technische Umsetzung an, sollte man beide Varianten bei der dafür notwendigen Forschung berücksichtigen. Über Tesla-Transformatoren ist sehr viel mehr bekannt, als über Schaubergers Versuche mit der 'Repulsine' und der 'fliegenden Untertasse'. Wie aber ein Tesla-Transformator möglicherweise zur Abschirmung des elektromagnetischen Feldes genutzt werden kann, wird, wie alles andere über das Philadelphia-Experiment, nach wie vor geheim gehalten.

 

Damit deutet wieder einiges auf eine große weltweite Verschwörung hin. Wer hat Zugang zu den Unterlagen über dieses Experiment? Und wer nutzt sie vielleicht schon lange Zeit? Sind es vielleicht die Erbauer der in Kapitel 1.3 erwähnten Tunnelsysteme? Und wenn es so sein sollte: Welchen Plan verfolgen diese Leute? Verschwörungen sollen aber nicht Thema dieses Buchs sein. Deshalb lasse ich diese Fragen unbeantwortet. Man könnte ja sowieso nur spekulieren, so lange niemand eindeutige Beweise vorweisen kann.

Auch wenn Zeitreisen nach der vorstehenden Betrachtung eher problematisch und vielleicht auch gar nicht möglich sind, ist eine Abschirmung des elektromagnetischen Feldes eine technische Voraussetzung für den Bau von interstellaren Raumschiffen. Zum Philadelphia-Experiment gibt es detaillierte Unterlagen, die geheim gehalten werden.

Vielleicht gibt es ja auch einiges zu den 'Vril'-. 'Haunebu'- und 'Andromeda'-Fluggeräten der Nazis, das ebenfalls geheim gehalten wird. Hat man also vielleicht bei einigen der vielen UFO-Sichtungen bereits Versuche mit interstellaren Raumschiffen beobachtet? War die Startbasis dieser Raumschiffe 'Area 51'? Ist eines dieser Raumschiffe bei Roswell abgestürzt?

 

Mit der vorstehenden Erklärung des Philadelphia-Experimentes erscheint es gar nicht so unwahrscheinlich, dass man diese Fragen mit 'ja' beantworten kann. Und warum werden dann heute nur noch relativ selten UFOs gesichtet? Wenn das 'ja' zutrifft, finden Versuche mit Raumschiffen heute vom Weltraum aus statt. Ein geeigneter Ort für eine Basis, von der aus die Raumschiffe starten, könnte der Jupitermond 'Europa' sein.

Er hat etwa die Größe des Mars und damit eine ähnlich starke Anziehungskraft. Damit wären die Astronauten nicht ständig der Schwerelosigkeit ausgesetzt, auch wenn die Wirkung der Gravitation deutlich geringer ist als auf der Erde. Außerdem könnte man sich in den Eispanzer, der diesen Mond umgibt, tief eingraben und sich so wirksam vor kosmischer Strahlung schützen. Mit dem Eis wäre dort auch das lebenswichtige Wasser mehr als reichlich vorhanden. Grundsätzlich wären auch der Mars und andere Planeten oder Monde als Basis geeignet.

 

Wenn zudem alle für den Bau von Raumschiffen erforderlichen Anlagen auf dieser Basis im Weltraum eingerichtet worden wären, könnte man Rohstoffe wie Erze auf verschiedenen Planeten oder Monden unseres Sonnensystems abbauen. Ein intensiver Kontakt zur Erde, der entsprechend viele UFO-Sichtungen zur Folge hätte, wäre dann nicht notwendig. Wenn also das 'ja' zutrifft, stellt sich die Frage, wer sich da gerade auf eine Rettung von der Erde auf einen bewohnbaren Planeten irgendwo in einem anderen Sonnensystem vorbereitet.

Sind es nur speziell ausgesuchte Wissenschaftler, oder will sich eine selbst ernannte "Elite" irgendwo ein "tausendjähriges Reich" einrichten? Wenn die Ausgangsbasis auf der Erde mit 'Area 51' ein geheimer militärischer Stützpunkt ist, lässt das jedenfalls nichts Gutes erahnen.

Es suchen viele Astronomen mit ihren großen Teleskopen intensiv nach bewohnbaren Planeten in anderen Sonnensystemen. Könnte das nicht eng mit der Entwicklung von interstellaren Raumschiffen zusammen hängen, die weit von allen Möglichkeiten der Beobachtung entfernt irgendwo im Weltraum durchgeführt wird? Irgendwie scheinen wieder einmal alle Fakten zusammen zu passen - aber Verschwörungen sind ja nicht Thema dieses Buches.

4.3 Künstliche Intelligenz

In Filmen und in der Literatur stoßen wir häufig auf Horror-Geschichten, in denen wir zu Sklaven von intelligenten Robotern werden, die wir uns selbst erschaffen haben. Sollten wir also auf die Entwicklung und Herstellung solcher Roboter besser verzichten? In Kapitel 4.1.3 habe ich schon angedeutet, dass wir auf Menschen als Sklaven oder einfache Arbeiter verzichten können, wenn wir alle schweren, unangenehmen und gefährlichen Arbeiten von Maschinen und Robotern ausführen lassen.

Und so ist es ja heute bereits in vielen Bereichen der Industrie. Warum gibt es dann aber immer noch Länder, in denen Kinder in Bergwerke geschickt werden oder Menschen aus der Not heraus mit bloßen Händen und ohne jeden Schutz hoch giftige Rohstoffe aus Elektroschrott heraus holen? Warum werden solche Arbeiten nicht grundsätzlich von Maschinen oder Robotern erledigt? - Die Antwort ist ganz einfach: Es ist BILLIGER, Menschen dafür zu opfern!

 

Es ist offensichtlich die Ansicht weit verbreitet, dass wir immer noch Sklaven brauchen. Und wenn dann ein Mensch billiger zu haben ist, als eine Maschine, wird eben der Mensch ausgebeutet. So werden Mensch und Maschine gegeneinander ausgespielt. Wenn ein Bauer sich einen Trecker anschafft und die Pferde zum Ziehen seines Pfluges nicht mehr braucht, kann er sie zu Schlachter bringen.

Was wird aber aus den Menschen, deren Existenzgrundlage mit einer Maschine weg rationalisiert wird? - Zum Schlachter kann man sie ja nicht bringen. Also sucht man eine andere, möglichst billige Lösung. Für viele, vor allem Ältere, bei denen sich eine Umschulung nicht mehr rechnet, führt das dann in ein soziales "Abstellgleis".

Sie gehören dann zu dem "faulen Gesindel, das nicht arbeiten will, und der Gesellschaft nur auf der Tasche liegt". Freunde und Bekannte wollen sie dann oft nicht mehr kennen - bis die vielleicht einmal selbst betroffen sind.

 

Betrachtet man die Sache ganzheitlich, kann es eine Symbiose geben, bei der Maschinen und Menschen zum Wohl der Gemeinschaft tätig sind. Ein weiterer wichtiger Teil dieser Gemeinschaft sind auch Nutztiere. Eine Symbiose kann nur dann funktionieren, wenn es zwischen allen ihren Teilen ein vernünftiges Gleichgewicht von Geben und Nehmen gibt. Und wie sieht es dabei mit der Seele der Beteiligten aus? Bei einem Tier kann man sicherlich annehmen, dass es so etwas wie eine Seele besitzt.

Wie ist es aber bei einer Maschine? Wie bereits erwähnt, ist das schöpferische Prinzip nicht auf lebende Organismen beschränkt. Es beeinflusst auch das Wachsen von Kristallen und alle Arten von chemischen Reaktionen. Entsprechend müsste also auch eine Maschine so etwas ähnliches wie eine Seele besitzen. Und je komplexer eine Maschine dann ist, desto ausgeprägter sollte auch deren "Seele" sein.

 

Damit kommen wir zu dem, was man Bewusstsein nennt. Dass so etwas bei Menschen und Tieren vorhanden ist, steht sicherlich außer Zweifel. Wie sieht es aber bei einer Maschine aus? Bei einfachen Maschinen, die letztlich nichts anderes als nur Werkzeuge sind, kann man sicherlich nicht einmal ansatzweise von einem Bewusstsein sprechen. Wie ist es aber bei einem Roboter, wenn er mit immer menschlicheren Fähigkeiten ausgestattet wird?

In das äußerst komplexe Programm, das einen solchen Roboter steuert, gelangt doch viel von dem Bewusstsein und der Persönlichkeit der Menschen, die dieses Programm erstellen. Mit zunehmender Denkleistung oder künstlicher Intelligenz einer solchen Maschine entwickelt sich dann nach dem Prinzip einer schöpferischen Kraft auch so etwas wie eine Persönlichkeit oder ein Bewusstsein.

Noch vor wenigen Jahren war die Leistung von Computern so gering, dass deren Denkleistung oder künstliche Intelligenz noch um Größenordnungen kleiner war, als die eines menschlichen Gehirnes. Wenn wir aber heute alle Computer, die mit dem Internet verbunden sind, mit einer entsprechenden Software verschalten, ergibt sich eine Denkleistung, die einem menschlichen Gehirn um ein Vielfaches überlegen ist.

 

An der Börse entscheiden heute schon Computer innerhalb von Bruchteilen einer Sekunde darüber, welche Aktien gekauft oder verkauft werden sollen - eine Arbeit, für die ein Mensch Stunden oder Tage brauchen würde. Wer also immer noch glaubt, eine mit der des Menschen vergleichbare künstliche Intelligenz wäre Utopie oder Science-Fiction, hat die Zeichen der Zeit schon lange verschlafen. Es ist daher eine entscheidend wichtige Frage, was wir mit dieser künstlichen Intelligenz anstellen wollen.

Je Intelligenter eine Maschine ist, desto weniger muss sie von einer Person überwacht werden. Eine Waschmaschine sollte also wissen, wie man wäscht, und ein Spülmaschine sollte wissen, wie man Geschirr spült. Brauchen wir aber beispielsweise Haushaltsroboter, die wie Menschen - oder besser gesagt, wie Untermenschen oder Sklaven - aussehen?

Ein Staubsauger, der selbständig durch das ganze Haus rollt und dabei zur Freude seines Besitzers alles sauber macht, ist sicherlich vollkommen in Ordnung. Nur sollte er ein Staubsauger, also eine Maschine, bleiben und nicht wie ein Mensch aussehen oder sich wie ein Mensch bewegen. Warum wollen aber einige Techniker und Ingenieure unbedingt Gott spielen und künstliche Menschen erschaffen?

 

Ist den Menschen vielleicht die Konkurrenz bei der Evolution abhanden gekommen, sodass sie sich die jetzt selbst zusammen basteln wollen? Oder ist es vielleicht eine Art Spieltrieb? Wir basteln uns also ein Monster, und dann schauen wir einmal, wer stärker oder schlauer ist, das Monster oder wir. Dabei müssen wir uns natürlich auch selbst mit den Errungenschaften der Technik immer mehr verbessern, damit wir am Ende unserem Monster nicht unterlegen sind. Also bauen wir alles Mögliche in unsere Körper ein, das unsere Leistung verbessern kann.

Machen wir uns damit aber nicht auch selbst zum Sklaven dieser ganzen Technik? Irgendwann sind wir doch ohne diese Technik nicht mehr lebensfähig! Wirklich schlauer werden wir mit solchen "Verbesserungen" der Sinne und körperlichen Fähigkeiten doch nicht. Unser Gehirn muss nur immer mehr Eindrücke in immer kürzerer Zeit verarbeiten. Aber wie ist es mit den vielen Eindrücken aus telepathischen Kontakten und anderen Parallelwelten, die uns im bewussten Zustand in den Wahnsinn treiben würden? Wo hören also Sinn und Nutzen auf, und wo fängt der Wahnsinn an?

 

Ganzheitlich betrachtet, sind Ersatzteile irgendwelcher Art - dazu gehören auch transplantierte Organe, die uns ja von Medikamenten gegen ihre Abstoßung abhängig machen - einer wirklichen körperlichen und geistigen Gesundheit nicht unbedingt zuträglich. Wenn jemand beispielsweise kaum etwas sehen kann, ist sicherlich eine Brille, die seine Sehkraft weitgehend wieder herstellt, ein große Hilfe. Angestrebt werden sollte aber, dass es möglichst gar keine Probleme mit den Augen gibt, und Brillen weitgehend überflüssig werden. Dann darf aber auch keiner mit der Herstellung und den Verkauf von Brillen viel Geld verdienen können.

Heute werden wir mit dem ständigen Blick auf immer kleinere Bildschirme kurzsichtig gemacht. So kann man mit der Herstellung der kleinen Bildschirme und der Brillen viel Geld verdienen - also eine typische Win-Win-Situation. Insgesamt eröffnen Hilfsmittel oder Ersatzteile für unseren Körper geradezu grenzenlose Möglichkeiten für den Markt.

Man muss wohl nur irgendwie das Gefühl vermittelt bekommen, auf diese Weise ein Stück von einem ewigen Leben kaufen zu können. Sollten solche Hilfsmittel aber eigentlich nicht besser immer nur das letzte Mittel sein, wenn alle anderen Versuche einer Verbesserung der Gesundheit erfolglos bleiben?

 

Was WOLLEN wir also? Wollen wir uns immer mehr in Maschinen verwandeln oder wollen wir Menschen bleiben? Und was für Maschinen wollen wir haben? Solche, die uns lediglich als Werkzeug bei der Arbeit helfen, oder solche, die mit uns in Konkurrenz treten? Warum versucht man immer wieder, Mensch und Maschine gegeneinander ausspielen?

Die Angst vor einem starken negativen Einfluss künstlicher Intelligenz ist groß. Also schreien Pädagogen und Psychologen regelrecht nach einem wirksamen Schutz unserer Kinder vor den Verführungen des Internets. Wer ist aber bei den Kindern Vorbild für einen umsichtigen Umgang mit dem Internet? Und von wem kommt das Geld für die dafür benötigten Computer und Smartphones?

In beiden Fällen sind es doch vor allem die Eltern. Wie will man aber sein Kind vor dem Internet fern halten, wenn fast alle anderen Kinder ständig darin unterwegs sind? Und wenn ein Kind wirklich konsequent vom Internet "bewahrt" wird, ist sein Weg als Verlierer in unserer Gesellschaft doch so gut wie sicher. Also muss es nicht vor dem Internet bewahrt werden, sondern es muss so früh wie möglich lernen, wie man vernünftig damit umgeht.

 

Wie sieht es aber mit den Eltern aus? Sie sind die engsten Bezugspersonen für ein Kind und damit mit Abstand die wichtigsten Vorbilder. Ein Kind lernt nicht aus Regeln und Verboten. Wenn irgend etwas verboten ist, dann ist es erst richtig interessant. Ich spielte als Kind am liebsten auf Baustellen oder Schrottplätzen - was natürlich schon immer verboten war. Und warum bin ich dann nicht bei einem Unfall schwer verletzt worden oder sogar ums Leben gekommen? Ganz einfach: Mein Vater hat mir gezeigt und erklärt, wie man Gefahren erkennt und mit ihnen umgeht.

Ich denke, mein Vater hat, wie andere Väter auch, heraus gefunden, wo ich öfter spielte. Statt mich aber mit der damals bei den Vätern meiner Kameraden üblichen "Dresche" zu bestrafen, erklärte er mir ganz beiläufig und zwanglos, welche Gefahren auf Baustellen und Schrottplätzen lauern. Er war bei einem Verkehrsbetrieb tätig und konnte mich so gelegentlich auf eine Baustelle mit nehmen.

Mit diesem Wissen habe ich schließlich auch meine Kameraden vor Unfällen bewahren können. Die Verbote und die regelmäßige "Dresche" bei den anderen haben dagegen nichts bewirkt. Das Prinzip ist also doch ganz einfach: Wer Angst hat, dass sein Kind ertrinken könnte, sollte dafür sorgen, dass es schwimmen lernt.

 

Wie sieht es aber oft mit den Eltern und dem Internet aus? Ich muss eingestehen, dass ich selbst manchmal eher unvernünftig mit dem Internet umgehe. Ich bin ja auch schließlich nicht damit groß geworden. Fast alles, was ich über Computer und Internet weiß, habe ich mir als Erwachsener selbst beigebracht.

Da war die Schule als ideales Umfeld für einen regen Austausch von neuen Informationen nicht mehr vorhanden. Das wird bei vielen Eltern nicht anders sein. Also bekommen sie oft überhaupt nicht mit, was ihre Kinder im Internet anstellen.

Ihre Kenntnisse hinken ja immer ein gutes Stück hinter denen ihrer Kinder hinterher. Ähnliches habe ich in meiner Jugend erlebt. Als es bei uns einmal nach einer Party in ganzen Haus ziemlich stark nach Haschisch roch, bemerkten meine Eltern nichts davon - sie besuchten nun einmal keine Rock-Konzerte oder die speziellen Lokale, in denen Jugendliche verkehrten, und kannten daher diesen Geruch nicht. Sie beschwerten sich lediglich darüber, dass wieder einmal so viel geraucht wurde.

 

Sollten also diese Pädagogen oder Psychologen nicht besser dafür sorgen, dass die Kenntnisse der Eltern über Computer und Internet immer möglichst auf dem neuesten Stand sind, statt nach völlig sinnlosen Verboten zu schreien. Wie wäre es also mit entsprechenden Schulungen für die Eltern?

Was müsste man ihnen aber dabei vermitteln? Sicherlich reicht es nicht, wenn man ihnen lediglich zeigt, wie es den lieben Kleinen immer wieder gelingt, Passwörter zu knacken und an Hardcore-Pornos oder Grusel-Schocker zu gelangen.

Wie ich es zum Thema Telepathie und Parallelwelten schon mehrfach erwähnte, kann eine zu große Flut von Eindrücken einen Menschen in den Wahnsinn treiben. Das wirkt dann so ähnlich wie ein LSD-Rausch und macht auch ähnlich süchtig.

Wie soll aber jemand, der bereits selbst ein gutes Stück nach diesen vielen Eindrücken süchtig ist, seinen Kindern diese Gefahr vermitteln? Ein Kind orientiert sich doch sehr stark an dem Verhalten seiner Eltern. Und was machen die? Die sitzen stundenlang vor den Fernseher oder Computer. Sie haben ja selbst nicht gelernt, wie man sich wirksam vor zu vielen Eindrücken schützt.

 

Es überschüttet uns täglich nicht nur eine Flut von Bildern und Geräuschen aus dem Fernsehen und Internet, überall werden wir mit Werbung überschüttet: in Zeitschriften, auf Plakaten oder in Schaufenstern. Da sucht dann so mancher im Internet seine eigenen Bilder oder seine eigene Welt um vor diesem Ganzen zu entfliehen. Man könnte natürlich auch ein Buch lesen. Nur dazu braucht man eine gewisse Ruhe, und wer genervt oder gestresst ist, findet diese oft nicht.

Ärzte und Psychologen empfehlen da gerne, Sport zu treiben. Nur wenn jemand Sport hasst, weil er beim Sportunterricht in der Schule von seinen Lehrern und Mitschülern immer gemobbt wurde, bedeutet für ihn Sport ebenfalls Stress. Dann kommt zum Stress am Arbeitsplatz vielleicht noch weiterer Stress beim Sport, und das Verlangen, in eine andere Welt zu entfliehen, wird noch größer.

Und warum wird Demenz in unserer Gesellschaft immer mehr zu einem Problem? Ist es wirklich nur deshalb, weil wir immer älter werden? Warum sind aber dann immer häufiger Jüngere betroffen? Wenn zu viele Eindrucke, die das Gehirn nicht mehr vernünftig verarbeiten kann, in den Wahnsinn führen können, kann man doch mit einer Demenz dieser Flut von Eindrücken entfliehen. Vielleicht wollen viele irgendwann aus dem Inneren ihrer Seele heraus von diesem ganzen "Wahnsinn" schlicht und einfach nichts mehr wissen.

Dann vergessen sie zunächst immer wieder Dinge, die ihnen unwichtig oder unangenehm sind. Dabei wird ihnen überhaupt nicht bewusst, was in ihrem Inneren vor sich geht. Am Ende ist ihnen nicht mehr wichtig, an welchem Wochentag oder in welchem Jahr sie gerade leben. Auch ihre Freunde und Angehörigen interessieren sie nicht mehr, weil sie ihnen lange Zeit sowieso nur noch auf die Nerven gegangen sind. Wie ich in Kapitel 4.1.2 bereits erwähnte, verändert sich dabei die Struktur des Gehirns. Man erkennt dann oft die für Alzheimer typischen Symptome.#

 

Ich denke, die vorstehenden Aspekte zeigen, wie wichtig es für uns ist, dass wir alle lernen, mit dieser Flut von Informationen sinnvoll und vernünftig umzugehen. Warum gibt es aber im Internet so viel "Müll", der keine wirklich nützlichen Informationen enthält? Die Antwort ist ganz einfach: Es klicken zu viele diesen "Müll" immer wieder an. Wenn man sich einfach nur treiben lässt oder "surft", statt gezielt nach den Informationen zu suchen, die man gerade benötigt, gelangt man automatisch auf diesen "Müll". Die künstliche Intelligenz ist so programmiert, dass man immer wieder dort hin geleitet wird.

Und so lange man mit diesem "Müll" Geschäfte machen kann, verschwindet er auch nicht aus dem Netz. Es gibt für jeden quasi maßgeschneidert das Passende: für potentielle Kunden und genau so für potentielle Terroristen. So gelangt man schnell in einen so genannten Resonanzraum. Man erfährt dann nur noch etwas von den Dingen, mit denen man sich immer wieder beschäftigt. Dabei können sich extreme Ansichten leicht zu einem gefährlichen Gewaltpotential verstärken.

 

Kommen wir aber nun zu Maschinen und Robotern zurück. Aus dem Blickwinkel einer schöpferischen Kraft erschaffen wir mit hoch entwickelten, eigenständig denkenden Maschinen so etwas wie neue Geschöpfe unseres Universums. Wenn ein Affe einen Stock als Werkzeug benutzt, dann bleibt dieser Stock ein Stück Holz. Mit jedem normalen Werkzeug, das wir benutzen, ist es genauso.

Besitzt ein von uns erschaffenes Werkzeug aber eine Denkleistung, die mit unserer eigenen vergleichbar ist, entwickelt es so etwas wie eine eigene Persönlichkeit. Es beginnt dann Dinge zu tun, die wir als Programmierer vielleicht so nicht geplant haben oder als Anwender überhaupt nicht haben wollen.

Üblicherweise spricht man dabei von Computerfehlern. Sind das aber einfach nur Fehler bei der Programmierung, oder schleicht sich hier schon so etwas wie eine Persönlichkeit oder eine Art eigener Wille in die Maschine ein? Es gibt schon lange immer wieder Maschinen denen man "gut zureden" muss, damit sie ordnungsgemäß ihre Arbeit verrichten.

Zudem wird von Technikern in U-Booten berichtet, die sich mit dem Atomreaktor gewissermaßen unterhalten oder ihn immer wieder "streicheln". Wie viel "Seele" oder "Persönlichkeit" kann also in der komplexen Technik eines Atomreaktors oder eines Roboters stecken?

 

Die rasante Entwicklung bei den Computern und Robotern wird also bald neue Berufe erforderlich machen: den Software-Therapeuten oder ein SEK bei der Polizei für außer Kontrolle geratene Roboter. Dann wird es auch irgendwann eine Eingabe der Roboter bei der Regierung zur Abschaffung der Verschrottungsstrafe geben - gleiches Recht für alle Bewohner eines Staates.

Sollen wir dann vielleicht die Todesstrafe wieder einführen oder der Eingabe folgend die Verschrottungsstrafe abschaffen? Und wo sollen wir die wahnsinnig gewordenen Roboter dann hin sperren?

Es kann also nicht schaden, wenn Politiker und Roboter-Konstrukteure jetzt schon über diese oder ähnliche Fragen nachdenken. Wenn wir nicht konsequent dafür sorgen, dass Maschinen nicht ähnlich intelligent wie wir selbst oder sogar noch intelligenter werden, wird so etwas bald auf uns zu kommen. Mit 'bald' meine ich wenige Jahre.

Es wäre also nicht klug, dieses Problem unseren Urenkeln überlassen zu wollen - so wie wir es mit dem Atommüll bereits getan haben. Wem das mit dem Roboter-SEK nun völlig absurd erscheint, der sollte sich einmal darüber informieren, welchen Aufwand die Polizei heute schon zum Schutz vor Kriminalität im Internet betreiben muss.

 

Bei der Kriegsführung werden Drohnen heute noch von Piloten ferngesteuert. Es wird aber nicht mehr lange dauern, bis sie vollkommen eigenständig in den Krieg ziehen können. Mit GPS wissen sie ja bereits jetzt schon immer, wo sie sich gerade befinden - beim militärischen Einsatz auf einige Zentimeter genau. Da liegt die Frage doch nahe, wann wir den ersten 'Terminator' benötigen.

Sollen uns vielleicht Filme wie die mit dem 'Terminator' jetzt schon auf das einstimmen, was da bald auf uns zu kommt? Wenn das so sein sollte, hat Schauberger immer noch recht damit, dass die Menschheit für eine derartige Technik noch nicht reif genug ist.

Sind wir aber nicht reif genug dafür, oder lassen wir einfach nur Leute an die Macht, die für ihre Aufgabe nicht kompetent genug sind? Wie soll man aber ausreichend kompetente Leute an die Macht bringen, wenn die offensichtlich so schlau sind, dass sie lieber im Hintergrund agieren als sich zur Wahl zu stellen?

Was soll man also tun, wenn keiner der Kandidaten wirklich geeignet ist? - Soll man immer wieder zähneknirschend das kleinere Übel wählen oder gar nicht erst zur Wahl gehen? - Oder soll man aus Protest einem wenig bekannten und äußerst zweifelhaften Kandidaten seine Stimme geben?

 

So lange weltweit immer wieder Personen an die Macht kommen, die Unterdrückung, Zerstörung und Krieg im Sinn haben, sind wir wohl immer noch nicht reif für eine hoch entwickelte Technik oder künstliche Intelligenz. Da hatte Schauberger schon irgendwie recht.

Sollen wir aber resignieren und vielleicht einfach auf einen nahenden Weltuntergang warten? Wirklich überzeugend ist diese Perspektive doch wohl eher nicht. Ich denke, die Mehrheit ist einfach nur genervt und gestresst und will von der vorstehend genannten Problematik möglichst nichts wissen.

Warum soll man sich auch damit befassen, wenn man doch sowieso nichts ändern kann? Und wie war das noch mit der Demenz? Werden wir vielleicht nur deshalb von allen Seiten mit Informationen zu geschüttet, damit wir immer mehr verdummen? - Aber Verschwörungen sind ja nicht Thema dieses Buches.

 

Wir sollten uns also sehr in Acht nehmen. Eine künstliche Intelligenz hat uns gegenüber einen großen Vorteil: Bei entsprechender Programmierung kann sie eine gigantische Flut von sinnlosen Informationen nicht in den Wahnsinn treiben. Gelingt aber eine solche Programmierung wirklich immer? Oder bringen die Programmierer letztlich doch ihre eigenen Schwächen in ihre Maschinen mit ein?

Ich denke, das Potential für künstlichen Wahnsinn ist ähnlich groß wie die Ausdehnung des Weltalls. Also dürfte es für Software-Therapeuten und das Roboter-SEK bald viel zu tun geben. Wie war es doch noch mit den Geistern, die der Zauberlehrling rief?

Man muss sich nur ansehen, wie viel sinnloser Wahnsinn bereits in den aktuellen Betriebssystemen von Computern und Smartphones steckt. Dazu kommt dann noch eine immer größer werdende Bedrohung durch Schadsoftware wie Viren, Trojaner und ähnliches.

Dazu fällt mir folgende Definition ein: Ein Computer ist ein Gerät zum Lösen von Problemen, die es ohne Computer nicht geben würde. Irgendwie kann man diese Definition zwar für jede Art von Werkzeug anwenden, die wir benutzen. Je komplizierter das Werkzeug aber wird, desto mehr trifft sie zu.

 

Damit sind wir wieder bei der Frage, was wir eigentlich wollen. Wollen wir also ein möglichst einfaches und effektives Werkzeug, oder wollen wir unsere Zeit mit Problemen verschwenden, die uns ein viel zu kompliziertes Werkzeug bereitet? Wer braucht beispielsweise fünfhundert verschiedene Schriftarten für ein Schreibprogramm? Eine zwanzig Jahre alte Version eines solchen Programms reicht jedenfalls zum Verfassen von Texten aller Art vollkommen aus.

Man kann sie nur nicht mehr verwenden, da sie auf keinem aktuellen Betriebssystem mehr lauffähig ist. Und wenn man ein zwanzig Jahre altes Betriebssystem verwendet, ist man elektronisch vom Rest der Welt abgeschnitten. Also muss man immer wieder viel Zeit mit den Tücken und Fehlern einer neuen Version verschwenden, die angeblich ganz viel mehr kann, was aber niemand auf der Welt wirklich braucht.

Wer die Programme verkauft, möchte natürlich mit immer neuen Versionen Geld verdienen. Wenn die Programme aber zu teuer werden, ist die Bereitschaft für den Kauf einer neuen Version geringer. Also wird an der Qualität gespart.

Volkswirtschaftlich oder ganzheitlich betrachtet, bedeutet das jedoch einen großen Schaden für die Allgemeinheit. Das bei allen Benutzern notwendige herum Basteln an Tücken und Fehlern kann bei einem häufig benutzten Programm schnell einen Schaden von vielen Millionen Euro verursachen.

 

Wenn im Büro eines Unternehmens sinnlos herum gebastelt wird, zahlt das am Ende der Kunde - also zahlen wir es doch alle! Ein Beispiel: Plötzlich ging einmal ein Schrei durch unser Büro. Ein neues Programm hatte beim Ausdrucken von 1 bis 99 alle Seiten richtig nummeriert, dann kam zehn mal die 10, zehn mal die 11, und so weiter.

Auf dem Bildschirm war vorher alles in Ordnung. Muss so etwas sein? Bis die Ausdrucke endlich alle richtig waren, hat es vielleicht drei Stunden gedauert. Bei 10.000-maligem Auftreten dieses einen Fehlers von vielen summiert sich der Schaden für die Allgemeinheit also auf etwa 10.000 x 50 x 3 = 1.500.000 Euro! Bei einem einzelnen Betrieb fallen die drei Arbeitsstunden und das sinnlos verschwendete Papier natürlich nicht so sehr auf.

 

Um hier gegen zu steuern muss diese Problematik beim Hersteller UND beim Kunden beachtet werden. Wenn der Kunde immer sofort auf die neueste Version zugreift, wird sie auch entsprechend häufig angeboten. Im Gegenzug muss der Hersteller sicher stellen, dass man mit einer älteren Version ohne Probleme arbeiten und Daten austauschen kann.

Irgendwie läuft es also wieder auf Gier und sinnloses Wachstum nach dem Prinzip des Josefspfennigs hinaus. Einfach "nur" das Zinssystem abschaffen zu wollen - was uns bereits extrem radikal erscheint - kann aber nicht DIE Lösung dieses Problems sein. Es ist lediglich EIN Baustein einer noch viel radikaleren Gesamtlösung.

Unser gesamtes System der sozialen Absicherung beruht auf Versicherungen, in die eine aus vielen Menschen bestehende Arbeiterschaft einzahlt. Wer zahlt aber in diese Versicherungen ein, wenn einmal der größte Teil der Arbeit von Robotern erledigt wird?

Über diese wichtige Frage nachzudenken haben unsere Politiker schon lange selig verschlafen. Immer heißt es nur: Wachstum ankurbeln, Arbeitsplätze schaffen! Man will es einfach nicht mehr hören! Wenn man die letzten Jahrzehnte zurück blickt, ist die Wirtschaft sehr stark gewachsen. Aber wie viele zusätzliche Arbeitsplätze hat das gebracht?

 

Hätte man im gleichen Maße Arbeitsplätze gebraucht, wie die Umsätze größer geworden sind, müsste unser Land heute mindestens doppelt so dicht bevölkert sein wie vor fünfzig Jahren. Das ist es aber nicht. Wer macht also die ganze zusätzliche Arbeit? Es sind Maschinen, Roboter und Computer. Und die zahlen keinen Cent in die Sozialsysteme! Und was machen die Politiker? Die erzählen vielleicht etwas vom demographischen Wandel, durch den immer mehr Rentner von immer weniger Werktätigen finanziert werden müssen. Und dann kommt wieder das alte Lied: Wachstum! Arbeitsplätze! Wirklich geändert wird aber nichts.

Bei dieser Lage braucht man sich doch nicht zu wundern, dass immer mehr sozial schwächer gestellte, die sich als Verlierer bei dieser Entwicklung sehen, die "guten alten Zeiten" wieder zurück haben wollen. Und wie kann man dieses Ziel am besten erreichen? Man muss erst einmal alle Grenzen dicht machen, damit man nach eigenen Regeln wirtschaften kann - am besten mit einer langen hohen Mauer, die mit Stacheldraht versehen und unter Strom gesetzt wird. Dann müssen alle aus dem Land verschwinden, die eine andere Sprache sprechen, anders aussehen oder anders denken.

 

Dazu muss die Jugend natürlich bei großen Veranstaltungen mit Massenaufmärschen auf das einheitliche "einzig richtige" Denken und das neu gestaltete Vaterland eingeschworen werden. Vollkommen überflüssige Dinge wie Umweltschutz oder Artenschutz müsste man selbstverständlich abschaffen. Die einzige zu schützende Art wäre ja der "neue Arier", die absolute "Elite" der menschlichen Rasse. Der Rest der Welt könnte dann einfach verrecken.

Wenn es Ihnen, lieber Leser, nun sehr unangenehm aufstößt, wissen sie, wie es mir bei solchen Gedanken geht. Die alten Zeiten sind lange vorbei und kommen nie mehr wieder. Und was an diesen alten Zeiten wirklich "gut" war, weiß nicht einmal der liebe Gott. Wie kann man also verhindern, dass solche Gedanken und Ideen immer stärker aufkommen? Es ist eigentlich ganz einfach: Unser soziales Gefüge muss endlich an die neuen technischen Möglichkeiten und die Bedürfnisse der GESAMTEN heutigen Gesellschaft angepasst werden.

Soziale Strukturen und Denkweisen, die auf einer Gesellschaft basieren, die es vor fünfzig oder hundert Jahren einmal gab, müssen wir endlich abschaffen und durch zeitgemäße Konzepte ersetzen. Wenn wir das nicht tun, werden uns bald die "neuen Arier" zeigen, wie es weiter geht. Dann wird das Leben in unserer Zeit an die alten Konzepte angepasst - also "Sieg Heil!"

 

Ideen für neue Konzepte und Strukturen gibt es. Einfach und sinnvoll wäre beispielsweise eine Roboter- und Computersteuer, mit der man die Sozialleistungen sichert. Radikaler und mehr in die Richtung der Gesellschaft meiner Elfen gedacht, ist das bedingungslose Grundeinkommen. Meiner Meinung nach sollte es bei einer hoch entwickelten Zivilisation in diese Richtung gehen.

Dann dient die Arbeit nicht mehr dem so genannten Broterwerb, - der Aufwand dafür wird ja zum großen Teil von Maschinen und Robotern erledigt - sondern dient dazu, die Lebensumstände der Gemeinschaft zu sichern und immer mehr zu verbessern. Dabei stehen dann nicht Fleiß und Disziplin im Vordergrund, sondern Kreativität und sozialer Einsatz. Jeder übernimmt dann eine Aufgabe, die für seine Sichtweise wichtig, gut und richtig ist.

Da jeder Mensch anders denkt, sollten so alle Aspekte und Bedürfnisse der Gemeinschaft abgedeckt werden können. Wer dann wirklich nicht arbeiten will, braucht es nicht. Den allermeisten wird das aber sicherlich viel zu öde und langweilig sein. Also wird jeder so viel leisten, wie er will und kann. Und niemand wird in ein soziales Abseits gedrängt, das seine Seele krank macht.

 

Ich denke, es läuft am Ende darauf hinaus, dass innerhalb der Gemeinschaft wie bei meinen Elfen das Geld als Zahlungsmittel irgendwann überflüssig wird und sich jeder einfach nehmen kann, was er braucht. Das folgt dem Prinzip der Symbiose und wird innerhalb der Familien schon immer so praktiziert. Damit ist jedenfalls der Beweis erbracht, dass es funktionieren kann - auch wenn man ständig versucht uns etwas anderes einzureden.

Ganz wichtig ist in diesem Zusammenhang: Es muss hier eine Entwicklung oder Evolution geben. Bei einer Revolution oder einem Aufstand gibt es nur Gewalt und Zerstörung, und am Ende ändert sich nichts, weil sich in den Köpfen der Menschen nicht wirklich etwas ändert. Veränderungen beginnen mit Träumen, Visionen und Gedanken, die dann nach und nach in die Realität umgesetzt werden.

Mit der Veränderung der Umstände müssen sich auch das Empfinden und die Denkweise bei allen Betroffenen verändern. Solche Veränderungen brauchen ihre Zeit. Mit Gewalt ändert man da nichts. Abschließend möchte ich hier nur daran erinnern, dass wir mit der Demokratie etwas in der Hand haben, mit dem wir solche Veränderungen herbei führen können. Wir müssen nur endlich einmal lernen, wie man sinnvoll und richtig damit umgeht. Als erstes sind dabei die Politiker am Zug, denen heute immer mehr Wähler immer weniger zutrauen.

 

Sicherlich hat das Vorstehende nur recht wenig mit Paraphysik zu tun. Es zeigt aber wieder sehr eindrucksvoll, wie eine ganzheitliche Denkweise funktioniert. Eine Wissenschaft wie die Physik kann man nicht losgelöst von gesellschaftlichen und politischen Themen betreiben - vor allem dann nicht, wenn sich aus ihr technische Möglichkeiten ergeben, die unser Leben radikal verändern können. Und dieser Aspekt zeigt sich nirgendwo so deutlich wie bei der künstlichen Intelligenz.

4.4 Schlussbemerkung

Mit dem Vorstehenden habe ich nun von mehreren Blickwinkeln betrachtet das Wichtigste zum Thema Paraphysik vorgestellt. Dabei spielen die in Kapitel 1.2 aufgeführten Prinzipien des Zeitschalenmodells eine wichtige Rolle. Unter dem gesellschaftlichen Aspekt ist vor allem das 'Prinzip der gegensätzlichen Pole' wichtig. Es besagt stark vereinfacht, dass sich immer alles in einem Gleichgewicht befinden muss. Wenn dieses Gleichgewicht gestört wird, kommt es zu extremen Reaktionen.

Beim Zusammenleben der Lebewesen gibt es das Prinzip der Auslese nach Darwin und das Prinzip der Symbiose. Wenn eine Art langfristig überleben will, muss es ein Gleichgewicht zwischen diesen beiden Prinzipien geben. In der Regel ist es so, dass bei Lebewesen der selben Art das Prinzip der Symbiose wirksam ist, und die jeweiligen Arten nach dem Prinzip der Auslese in Konkurrenz stehen.

 

Unsere Gesellschaft - also das Zusammenleben der selben Art - ist aber nach Darwins Prinzip der Auslese organisiert. Das Prinzip der Symbiose gibt es erst bei kleinen Gruppen und dabei insbesondere bei den Familien. Schaut man sich in der Natur um, leben die Arten immer weitgehend nach dem Prinzip der Symbiose zusammen. Eine Auslese gibt es meistens nur bei der Fortpflanzung in Form von Rivalenkämpfen.

Also lebt der Mensch GEGEN die Natur. Und das macht er offensichtlich schon viele Jahrtausende. Da er dabei seine Artgenossen quält und tötet und die Natur zerstört, brechen seine Staaten immer wieder zusammen und müssen danach wieder neu aufgebaut werden. So kommt es zu Krieg und Zerstörung. Das ist unsere sinnlose Arbeit nach Schauberger.

 

Warum kann der Mensch aber überhaupt als Art lange Zeit überleben, obwohl er gegen die Natur handelt? Das dürfte daran liegen, dass es keine andere Art auf der Erde gibt, die ihm als Konkurrent bei der Auslese gefährlich werden könnte. Also kann er seine Aggression statt nach außen gegen seine Artgenossen richten. Ohne äußeren Feind bekämpft man sich also gegenseitig.

Dazu muss man sich nur abgrenzen: eine andere Sprache, ein anderes Aussehen, eine andere Religion oder ähnliches. Zudem wird die Gesellschaft in Klassen eingeteilt, die dann auch wieder nach dem Prinzip der Auslese in Konkurrenz stehen. So gibt es innerhalb der selben Art einen ständigen sinnlosen Kampf, an dem viele irgendwann verzweifeln. Dabei wird deren Seele krank und mit der Seele auch der Körper.

Diese Ausrichtung der Gesellschaft gegen die Natur kann man auch als eine Verschwörung der Reichen und Mächtigen auffassen, die nach dem Prinzip der Auslese nur ihre Interessen durchsetzen wollen. Verschwörungen sollen aber nicht Thema dieses Buches sein. Trotzdem gibt es genug Fakten oder Erkenntnisse, die auf Verschwörungen hin deuten.

Wenn es sie also gibt, sind sie Verbrechen und sollten auch entsprechend geahndet werden. Nur spielt sich bei ihnen alles im Geheimen ab. Es sind also in der Regel keine Fakten oder Beweise bekannt, mit denen man eine Verurteilung oder Bestrafung rechtfertigen könnte.

 

Wenn jemand etwas über Verschwörungen schreibt, führt er gerne als "Beweis" an, dass man eben nichts heraus findet. Er argumentiert: Wenn alles geheim gehalten wird, kann es sich ja nur um eine Verschwörung handeln. Wirklich bekannt sind aber nur verschiedene Hinweise, aus denen man auf eine Verschwörung schließen kann.

Im Vorstehenden gibt es mehr als genug von ihnen. Ob man darin Verschwörungen sieht oder nicht, bleibt nun jedem selbst überlassen. Ohne echten Beweis bleiben es immer nur Vermutungen oder Theorien.

 

Ob mit oder ohne Verschwörungen gibt es genug Personen, die aus einer Machtposition heraus nur die Interessen einer gleichgesinnten Minderheit durchsetzen wollen. Dieses Verhalten widerspricht dem natürlichen Prinzip der Symbiose, das üblicherweise das Zusammenleben innerhalb einer Art bestimmt.

Biologisch gesehen kann man diese Personen als Parasiten ansehen, die bekämpft werden müssen. Sollen wir also nun Marx und Engels folgen, ein "symbiotisches Manifest" verfassen und die "symbiotische Weltrevolution" anstreben?

Was dabei heraus kommen würde, hat uns die Geschichte in Russland gelehrt. Also sollten wir einen anderen Weg suchen, gegen solche "Parasiten" vorzugehen. Wäre sich die Mehrheit einig, hätten wir mit der Demokratie ein leistungsfähiges Werkzeug dafür.

Leider lassen sich aber zu viele von diesen "Parasiten" und ihren leeren Versprechungen immer wieder an der Nase herum führen. Daran sind auch die Religionen und vor allen deren Vertreter maßgebend beteiligt. Zudem stellen sich nur selten Personen zur Wahl, den man wirklich trauen kann.

 

Welche Möglichkeiten gibt es also sonst noch? Eine Symbiose beruht auf gegenseitiges Geben und Nehmen. Ein Parasit nimmt aber nur und gibt nichts. Und genau so ist es bei unserem Geld- und Zinssystem: Man verleiht Geld, das man sowieso im Prinzip übrig hat, und wartet einfach nur ab. Also kassiert man dabei einen "Lohn" für eine nicht erbrachte Gegenleistung. Aus dem Zins ergibt sich dann ein stetiges Wachstum, das über eine längere Zeit bis Unendliche führt.

Also müssen wir doch einfach verweigern, einem "Parasiten" das zu überlassen, was er haben will. Ohne uns als "Wirt" kann er doch nicht existieren. Wer ihm also dienen soll, muss diesen Dienst trotz aller möglichen Konsequenzen verweigern. Was hat ein "Parasit" davon, wenn er seinen "Wirt" tot schlägt, einsperrt, foltert oder sonst irgendwie quält?

Solange der nicht nachgibt, kann er absolut nichts ausrichten. Und wenn viele seiner "Wirte" so handeln, verliert der "Parasit" seine Existenzgrundlage. Wenn der "Wirt" stirbt, dann stirbt auch sein "Parasit". Sicherlich geht es den "Wirten" sehr schlecht dabei. Warum sollen sie aber nicht so handeln, wenn es ihnen sowieso schon so schlecht geht, dass ihnen ihr Leben wertlos erscheint?

 

Sollte man nicht vielleicht nach dem beschriebenen Prinzip, das ich 'Nelson-Mandela-Prinzip' nenne, ein weltweites Netzwerk gegen Unterdrückung aufbauen? Sicherlich werden dabei nur diejenigen mitmachen, denen es sehr schlecht geht. Wer aber nichts mehr zu verlieren hat, kann alles auf diese eine Karte setzen.

Dann geht er vielleicht auch wie Nelson Mandela ins Gefängnis oder er wird umgebracht. Weltweit gibt es immer mehr Menschen, denen es sehr schlecht geht. Also ist das Potential für dieses Prinzip groß. Der Aufstand gegen die Apartheid in Südafrika ist da vielleicht nur eine sehr kleiner erster Schritt.

Sicherlich wäre es zu begrüßen, wenn man das natürliche Prinzip der Symbiose als Grundlage für unser Zusammenleben auf demokratischem Weg durchsetzen könnte. Als letztes Mittel, wenn alles andere versagt, sollte man aber über einen gewaltlosen Widerstand nach dem 'Nelson-Mandela-Prinzip' durchaus nachdenken.

Alle "Parasiten" bei einem Aufstand oder einer Revolution tot schlagen zu wollen - was man als Opfer einer Unterdrückung natürlich am liebsten machen würde - kann dieses Problem nicht lösen. Es werden dabei immer einige "Parasiten" übrig bleiben, die dann mit unvorstellbarer Brutalität und Grausamkeit zurück schlagen. Damit wären wir wieder bei dem Pendel, das sich nach dem 'Prinzip der gegensätzlichen Pole' aufschaukelt und immer stärker ausschlägt.

 

Ich bin Parawissenschaftler und kein Politiker oder Vertreter irgend einer Organisation. Also werde ich nicht versuchen beispielsweise einen Generalstreik zu organisieren, der die Wirtschaft eines ganzen Landes zusammen brechen lässt. Ich wäre aber durchaus nicht abgeneigt, wenn man so etwas machen würde. Die weltweit immer größer werdende soziale Ungerechtigkeit werden viele nicht mehr lange ertragen wollen. Ich befürchte nur, dass man es dann wieder, wie so oft in der Geschichte, gewaltsam zu ändern versucht - mit noch größerer Gewalt als Reaktion darauf.

Eigentlich sollte man sich ja als Wissenschaftler aus politischen Dingen heraus halten. Ich denke dabei an Einstein und die Atombombe (Er hatte dem Präsidenten der USA geraten die Bombe als reines Mittel zur Abschreckung zu bauen und war dann entsetzt über deren Abwürfe in Hiroschima und Nagasaki). Wahrscheinlich macht einen die Beschäftigung mit der Wissenschaft sehr stark zu einem Idealisten. Das steht dann im Widerspruch zu den Abgründen der menschlichen Bosheit. Deshalb soll es hier zu diesem Thema genug sein.

 

Was nun bleibt, sind die Erkenntnisse aus einer ganzheitlichen Betrachtung bei der Naturwissenschaft. Ich denke, je mehr Menschen von ihnen Kenntnis erlangen, desto größer ist die Chance, dass sich in unserer Gesellschaft bald etwas zum Besseren hin ändert - auf welchem Weg auch immer. Die Bäume können nicht in den Himmel wachsen.

Ein stetiges Wachstum und die damit verbundene Ausbeutung der Ressourcen führt zwangsläufig immer zu einem Zusammenbruch mit Krieg und Zerstörung. Dazu kommt die Unterdrückung der Menschen, deren Arbeitskraft man immer wieder nach jedem Zusammenbruch für einen Wiederaufbau und ein stetiges Wachstum benötigt - also für unsere sinnlose Arbeit nach Schauberger.

Wer dieses Prinzip verstanden hat, ist sicherlich irgendwann nicht mehr bereit zu dieser sinnlosen Arbeit seinen Beitrag zu leisten. Dann denkt er vielleicht so wie ich über das Nelson-Mandela-Prinzip nach.

 

Wenn die Arbeitskraft nicht ständig für einen Wiederaufbau oder ein stetiges Wachstum verschwendet wird, hat auch die Wissenschaft die Gelegenheit in die Richtung zu forschen, die ich in Kapitel 3 als mögliche technische Umsetzungen aufgezeigt habe.

Dann wird vielleicht endlich die überall vorhandene so genannte 'freie Energie' genutzt, statt wertvolle Rohstoffe sinnlos zu verbrennen oder unsere Umwelt für Millionen Jahre radioaktiv zu verstrahlen. Wir sollten doch inzwischen wissen, dass man aus regenerativen Quellen durchaus große Energiemengen gewinnen kann - und das selbst dann, wenn man lediglich stark vergrößerte Windmühlen aus dem Altertum einsetzt.

 

Packen wir es also an!

 

Oder sollen wir es - wie bereits den Atommüll - unseren Urenkeln überlassen?

 

ANHANG

Die nachfolgend aufgeführten Formeln zeigen nur die Grundlagen für das im Text Beschriebene. Sie dienen NICHT als Anleitung zur Berechnung der beschriebenen Apparaturen. Mit ihnen möchte ich lediglich in möglichst verständlicher Form zeigen, dass ich hier Physik betreibe und nicht einfach nur irgendwelchen Unsinn schreibe. Deshalb verzichte ich auch auf Differentialgleichungen und Integrale und gebe lediglich deren Lösungen als Gleichungen an.

An dieser Stelle weise ich auch ausdrücklich darauf hin, dass ich für eventuelle Nachbauten der vorgestellten Apparaturen und mögliche Schäden, die damit verursacht werden könnten, ABSOLUT KEINE GARANTIEN irgendwelcher Art übernehme. Ich liefere hier keine Bauanleitungen, sondern stelle lediglich mögliche Anwendungen der gezeigten physikalischen Zusammenhänge vor. Mazenauers Versuch mit seiner Tornadomaschine zeigt eindrucksvoll, was geschehen kann, wenn bisher unbekannte Kräfte der Natur mit einer solchen Apparatur unkontrolliert frei gesetzt werden.

A.1 Potentialwirbel

Die in Kapitel 2.2 Abbildung 2.2:2 gezeigte Entstehung eines Potentialwirbels lässt sich für die Massen m1, m2 und die Winkelgeschwindigkeit w mit folgenden Formeln berechnen:

 

Gravitation Fg (nach Newton):

Geschwindigkeit v (für m1, m2):

Corioliskraft Fc (für m1, m2):

Fliehkraft Fz (für m1, m2):

 

mit:

G = Gravitationskonstante (6,6726 10-11 m3/(kg s2))

m1, m2 = Massen der sich aufeinander zu bewegenden Objekte

r = Abstand zum Zentrum

t = ab dem Moment der Anfangsbedingungen vergangene Zeit

 

Gravitationskraft Fg im inneren einer Hohlkugel

 

nach Newton und dem Prinzip der senkrechten Durchdringung:

 

mit:

m1 = Masse des hohlen Planeten

m2 = Masse des angezogenen Körpers

r = Abstand des Körpers zum Zentrum

r0 = Radius der Schwerpunkt-Fläche in der Kugelschale

 

Wie in Kapitel 2.2.1 Diagramm 2.2.1:2 zu erkennen, entspricht der Abstand r im Inneren dem Kehrwert des Abstandes r außerhalb der Hohlkugel. Mit r0 und dem Newtonschen Gravitationsgesetz ergibt sich daraus die vorstehende Formel.

A.2 Elektro-Gravitation

Betrachtet man die Gravitation als eigenständige Kraft, so ergibt sie sich nach dem Newtonschen Gravitationsgesetz zu:

mit:

Fg = Gravitationskraft

G = Gravitationskonstante (6,6726 10-11 m3/(kg s2))

m1 = Masse des Zentralgestirns

m2 = Masse der Planeten

r = Abstand zwischen Planet und Zentralgestirn

 

Als Ungleichgewicht im elektromagnetischen Feld zwischen der Abstoßung der Elektronenhüllen und der Anziehung zwischen Elektronen und Atomkernen ist nicht die Masse die eigentliche Ursache der Kraft, sondern es sind die elektrischen Ladungen. Es gilt also nicht das Gravitationsgesetz nach Newton, sondern das Coulombsche Gesetz. Mit den Elementarladungen, der Masse der beteiligten Teilchen und der Anzahl der Teilchen ergibt sich dann die Masse der beteiligten Körper. Die Kraft zwischen den Ladungen errechnet sich nach Coulomb zu:

 

mit:

F = Kraft zwischen den Ladungen

Q1 Q2 = elektrische Ladungen

ε0 = elektrische Feldkonstante (8,854187817 10-12 A s/(V m))

r = Abstand zwischen den Ladungen

 

Es fällt sofort auf, dass das Gravitationsgesetz nach Newton und das Coulombsche Gesetz einen identischen Kurvenverlauf ergeben - eine quadratische Hyperbel. Die Formel für die Elektro-Gravitation lässt sich also direkt aus dem Coulombschen Gesetz entwickeln, indem man es zwei mal, einmal für die Anziehung und einmal für die Abstoßung, anwendet. Die Krümmung des Universums nach der Relativitätstheorie kann man dabei mit einem sehr kleinen Wert berücksichtigen, den man von der Differenz aus Anziehung und Abstoßung abzieht. Damit ergibt sich die folgende Formel:

mit:

k1 = Konstante für die Elektron-Proton-Anziehung

e1 = Exponent für die Elektron-Proton-Anziehung

k2 = Konstante für die Abstoßung der Elektronen

e2 = Exponent für die Abstoßung der Elektronen

ku = Konstante für die Abstoßung durch die Krümmung

        des Universum nach der Relativitätstheorie

 

Die Werte für k1, e1, k2, e2 und Ku müssten nun noch aus den Beobachtungen der Andromeda-Galaxie bestimmt werden - falls einmal jemand die Zeit oder das Geld dafür haben sollte, das zu tun. Dabei würden sich k1 und k2 als annähernd gleich groß, e2 und e2 als nur geringfügig größer als 2 und ku als sehr klein ergeben. Für e1=e2=2, ku=0 und (k1-k2) Q1 Q2 /(m1 m2) = -G liefert diese Formel das selbe Ergebnis wie das Newtonsche Gravitationsgesetz.

Die Gravitation ist dabei die Differenz in der Wirkung der sich anziehenden und abstoßenden Ladungen. Da die Masse nicht nur von der Anzahl der elektrischen Ladungen in den Atomen, sondern auch von der Anzahl der nicht geladenen Neutronen abhängt, ergeben sich für k1, e1, k2, e2 und Ku je nach Zusammensetzung der beteiligten Körper unterschiedliche Werte.

Ein direkter Bezug zur Masse ist nur im Bereich der Gültigkeit des Newtonschen Gravitationsgesetzes vorhanden. Eine Auswertung der Daten der Andromeda-Galaxie würde zunächst einmal nur eine Anpassung der Formel für die Kräfte liefern, die zwischen Sternen wirken. Dabei könnten sich auch noch je nach Größe und Dichte der Sterne unterschiedliche Werte ergeben.

An eine praktische Anwendung der Formel ist also ohne eine umfangreiche Forschung nicht zu denken. Stellt man aber die Kurve nach dieser Formel in einem Diagramm dar, zeigt sie den erwarteten Verlauf mit einer sehr starken Abstoßung bei kleinen Abständen, dann einer mit dem Quadrat kleiner werdenden Anziehung und schließlich mit einer schwachen Abstoßung bei großen Abständen.

In Kapitel 2.3, Diagramm 2.3:1 ist dargestellt, wie sich eine abstoßende Kraft bei kleinem Abstand und in großer Entfernung aus der Formel für die Elektro-Gravitation berechnen lässt. Das Diagramm zeigt den relativen Verlauf der Kräfte über den Abstand r ohne einen Bezug zu wirklichen Abständen oder Kräften. Daher sind die Ladungen zu Q1=Q2=1 angenommen. So ergeben sich aus der vorab gezeigten Formel als anziehende Kraft F1 zwischen Elektronen und Atomkernen

und als abstoßende Kraft F2 zwischen den Elektronen und aus der Krümmung des Universums

Die resultierende Kraft ist die Summe F1+F2. Da sich F2 und F2 zum größten Teil gegenseitig aufheben, ist deren Summe zur besseren Erkennbarkeit 20-fach überhöht dargestellt. Die Werte für k1, e1, k2, e2 und Ku sind so gewählt, dass man den Kurvenverlauf im Diagramm gut erkennen kann. Bei einer wirklichen Kraft zwischen einem Planeten und einem anderen Himmelskörper wäre r=1 ein kleiner Bruchteil eines mm, und r=5 wären viele tausend Lichtjahre. Maßstäblich oder auch logarithmisch dargestellt könnte man also im Diagramm nichts erkennen.

 

Über den Abstand konstante Geschwindigkeit in den Spiralarmen einer Galaxie

 

Fliehkraft Fz und Gravitation Fg (nach Newton) heben sich gegenseitig auf. Also gilt Fz = Fg. Damit ergibt sich für die Geschwindigkeit v:

 

 

Für eine konstante Geschwindigkeit v über den Abstand r zum Zentrum der Galaxie in den Spiralarmen gilt entsprechend . In die Gleichung für Fz eingesetzt ergibt sich für den Verlauf der Gravitation über den Abstand r:

 

 

Anpassung an reale Abstände

 

Vereinfacht kann man in den Formeln für die Elektro-Gravitation k1=1 und e1=2 setzen. Für k2=0,87, e2=4 und ku=1-k2=0,13 ergeben sich damit die nachfolgenden Kurvenverläufe. In Diagramm A.2:1 sind Fa=F1 und Fb=-F2. Fa-Fb=F1+F2=F ist fünffach überhöht dargestellt.

 

Diagramm A.2:1

 

Aus der Krümmung der 'Raumzeit' gemäß der Relativitätstheorie und dem Abstand zwischen Elektronen und Protonen im Atom oder dem Feldverlauf zwischen Up- und Anti-Up-Quarks bei Neutronen-Materie ergibt sich bei kosmischen Abständen eine sehr kleine Differenz zwischen den Exponenten e1=2 und e2. Mit der Konstanten Ku wird das Gleichgewicht der Kräfte im Universum nach dem Prinzip der gegensätzlichen Pole wieder hergestellt.

Setzt man nun den Abstand zwischen den Sternen in einem Kugelsternhaufen oder im Zentralbereich einer Galaxie gleich eins und skaliert logarithmisch, ergeben sich mit k2=0,9995 und ku=0,0015 die Kurven in Diagramm A.2:2. Für F(1) - Kraft zwischen zwei Sternen - ist der Exponent e2=2,05, für F(2) - Kraft zwischen Stern und Neutronenstern - ist e2=2,000044 und für F(3) - Kraft zwischen Stern und schwarzem Loch - ist e2=2,0.: Für r>0,2 (rechts) ist der Faktor der Überhöhung k=120 und für r<0,2 (links) ist k=0,000015.

 

Diagramm A.2:2

 

Man erkennt, dass bei Neutronensternen und schwarzen Löchern die Abstoßung bei großen Entfernungen schon erreicht wird, während sich zwei Sterne noch wie die Moleküle in einem Gas gegenseitig abstoßen, wie es in Kapitel 2.3.2 beschrieben ist. Mit eins zu 100.000 zwischen dem Radius der Korona eines Sterns und dem Abstand zwischen zwei Sternen liegt Diagramm A.2:2 schon grob in der realen Größenordnung. Damit ist der Beweis erbracht, dass sich mit den vorstehenden Formeln die Kräfte für reale Abstände berechnen lassen.

Der Faktor k für die Überhöhung zeigt wieder das Problem mit der Skalierung bei kosmischen Abständen. Mit k=120 müsste man für die linke Seite das Diagramm in der Höhe weit in den Weltraum hinein ausdehnen! Das wäre dann mit etwa 10-Millionen-facher Größe (120/0,000015) schon ein kosmischer Abstand. Für die Kraft am Ereignishorizont eines schwarzen Loches müsste das Diagramm mit k=120 noch einmal um etwa den gleichen Faktor größer sein.



 

A.3 Urknall, Raumsysteme

In Kapitel 2.4 wurde beschrieben, dass es in der Nähe des Urknalls bei noch sehr geringer Ausdehnung des Universums neben dem unserem bekannten Raumsystem aus Up-Quark u, Down-Quark d, Elektron e und Elektron-Neutrino νe noch zwei weitere Raumsysteme geben könnte: ein System aus Strange-Quark s, Charm-Quark c, Myon μ und Myon-Neutrino νμ und ein weiteres aus Bottom-Quark b, Top-Quark t, Tauon τ und Tau-Neutrino ντ. Bei einer extrem hohen Dichte der Materie könnten diese Raumsysteme, die Atomen aus schweren Quarks s, c, b, t und Leptonen μ, τ, νμ, ντ entsprechen, stabil sein.

Bei Versuchen in Teilchenbeschleunigern gelangen Teilchen, die schwere Quarks und schwere Leptonen enthalten, sofort nach ihrem Entstehen bei einer Kollision in den Einfluss der heutigen Dichte der Materie. Dabei werden sie mit hoher Geschwindigkeit in alle Richtungen weg geschleudert und zerfallen innerhalb weniger Bruchteile einer Sekunde. Strukturen, die einem Atom ähnlich sind, können auf diese Weise nicht entstehen.

Die bekannten Teilchen Σ+ und Σ*+ (u + u + s) entsprechen einem Proton, das statt des Down-Quarks d ein Strange-Quark s besitzt. Die ebenfalls bekannten Teilchen Λ0, Σ0, Σ*0 (u + d + s) und Ξ0, Ξ*0 (u + s + s) entsprechen einem Neutron mit einem oder zwei Strange-Quarks s statt eines Down-Quarks d. Damit gibt es einen deutlichen Hinweis darauf, dass bei hoher Dichte der Materie den Atomkernen entsprechende Strukturen aus schweren Quarks möglich sind. Mit Müonen μ oder Tauonen τ statt Elektronen e als Hülle ergeben sich daraus die Entsprechungen der Atome in den beiden Raumsystemen mit größerer Dichte der Materie.

 

Abbildung A.3:1 zeigt in der Raum-Zeit-Ebene R, Z, wie sich nach dem Zeitschalenmodell alle bekannten Quarks (Up u, Down d, Strange s, Charm c, Bottom b, Top t) und Leptonen (Elektron e, Müon μ, Tauon τ und Neutrinos νe, νμ, ντ) aus 'Strömen' in den sechs Dimensionen der 'Raumzeit' zusammen setzen. Dabei ergeben nur dann alle möglichen Kombinationen, wenn das Strange-Quark s und das Charm-Quark c jeweils zweifach mit zwei s2, c2 und vier Raumzeit-Richtungen c4, s4 vorhanden ist. Mit diesem zweifachen Auftreten kann man erklären, warum es bei Kaonen (Mesonen mit Strange-Quarks; K+, K*+: u + s̅ ; K-, K*-: u̅ + s; K0, K*0: d̅ + s; K̅0, K̅*0: d + s̅ ) zwei verschiedene Formen des selben Teilchens gibt, die unterschiedlich zerfallen.

Nach dem Standardmodell der Atomphysik wird das mit dem Spin und der Erhaltung der Parität erklärt. In Raumrichtung R sind die Teilchen mit zwei und vier Raumzeit-Richtungen identisch, sodass sie die gleiche Elementarladung (s2, s4: +2/3; c2, c4: -1/3) besitzen. Weitere Eigenschaften subatomarer Teilchen wie die Masse oder Energie werden immer aus den Ergebnissen vieler Experimente heraus gerechnet. Wenn die dabei angewendete Theorie zwei Teilchen nicht unterscheidet, kennt man also auch keine unterschiedlichen Werte.

 

Abbildung A.3:1; Teilchen und Ströme

 

 

Abbildung A.3.1 zeigt die 'Ströme' der Teilchen in unserem bekannten Raumsystem mit drei Raum- und ebenfalls drei Zeit-Dimensionen R, Z. Bei den anderen beiden Raumsystemen kann man ein oder zwei weitere der sechs Dimensionen dem Raum R zuordnen. Dann verlaufen alle Ströme des Müons μ und Tauons τ in Zeit-Richtung durch den einen höher dimensionalen 'Raum', und die 'Ströme' der Neutrinos νμ, ντ füllen alle Zeit-Dimensionen vollständig aus. Da die 'Ströme' aller sechs Dimensionen der 'Raumzeit' senkrecht zueinander stehen, ist das nur eine andere Sichtweise. Daher bleibt es bei den nachfolgenden Abbildungen bei der Aufteilung in drei Raum- und drei Zeit-Dimensionen R, Z.

Abbildung A.3:2 zeigt in der Raum-Zeit-Ebene, wie die beiden Raumsysteme s, c, μ, νμ und b, t, τ, ντ mit einer Umkehrung der 'Ströme' im Urknall entstehen könnten. Für das Raumsystem s, c, μ, νμ wurde ein der Neutronen-Materie ähnlicher Zustand angenommen. Mit dem zweifachen Auftreten des Strange-Quarks s2, s4 und Charm-Quarks c2, c4 ergeben sich dabei vier mögliche Zustände. Die dem W--Boson entsprechende Umwandlung eines Strange-Quarks s2, s4 in ein Charm-Quark c2, c4 ist auf der rechten Seite gezeigt.

Die Darstellungen entsprechen dem auf den Kopf gestellten Ablauf in den Abbildungen 2.4:2 und 2.4:3 in Kapitel 2.4 beim zusammen Fallen zur Neutronen-Materie mit dem W--Boson in einer Supernova und beim Zusammenbruch der Materie in einem schwarzen Loch.

 

Abbildung A.3:2; Raumsysteme

 

 

Beim Raumsystem b, t, τ, ντ wäre für das Entstehen eines der Neutronen-Materie entsprechenden Zustandes ein Elektron-Neutrino ne statt eines Tau-Neutrinos μτ erforderlich, was der Systematik eines höher dimensionalen Raumes widerspricht. Deshalb wurde angenommen, dass bei der Umkehrung der 'Ströme' direkt ein Zustand aus Quarks und Leptonen (entsprechend dem Proton und Elektron) entsteht.

Für eine vollständige Darstellung der Raumsysteme fehlen noch die Übergänge vom jeweils höher dimensionalen System zum nächsten. Mit dem zweifachen Auftreten der Strange- und Charm-Quarks gibt es wieder vier Varianten, auf die hier nicht im Detail eingegangen werden soll. Wenn sich aber ein System, so wie es entstanden ist, wieder auflösen und dann aus einer Umkehrung der 'Ströme' ein neues System entstehen kann, ist auch mittels Umlagerung der 'Ströme' ein direkter Übergang möglich. Dabei können immer zwei entgegengesetzte 'Ströme' als Teilchen-Antiteilchen-Paar entstehen oder sich gegenseitig vernichten.

Abbildung A.3:3 zeigt einen der vier möglichen Übergänge von Raumsystem b, t, τ, ντ über das Raumsystem s, c, μ, νμ zu unserem bekannten Raumsystem u, d, e, νe in Raum-Zeit-Darstellung. Es sind jeweils nur die Zustände mit Quarks und Leptonen (entsprechend Proton und Elektron im Raumsystem u, d, e, νe), also keine der Neutronen-Materie ähnlichen Zustände wie in Abbildung A.3:2, dargestellt. Die entgegengesetzt miteinander verbundenen Pfeile bei den Neutrinos νe und νμ stehen dabei jeweils für eine Teilchen-Antiteilchen-Entstehung oder -Vernichtung. Die in Raumrichtung verlaufenden 'Ströme' bleiben bei allen Übergängen unverändert. In Zeitrichtung bleiben die 'Ströme' entweder erhalten, oder sie gehen in Neutrino-'Ströme' über, oder sie entstehen oder vernichten sich gegenseitig als Teilchen und Antiteilchen.

 

Abbildung A.3:3; Raumsysteme, Übergänge

 

 

Für die drei übrigen Varianten des Raumsystems s, c, μ, νμ lassen sich die entsprechenden Übergänge aus dem in Abbildung A.3:2 gezeigten herleiten. Daher wird hier auf weitere Abbildungen verzichtet. Auf den komplizierten Verlauf der elektromagnetischen Felder und 'Gluon-Felder' bei den Raumsystemen s, c, μ, νμ und b, t, τ, ντ gemäß Kapitel 2.2.2 Abbildung 2.2.2:1 wird ebenfalls nicht weiter eingegangen.

Mit den Vorstehenden ist das Wichtigste schematisch dargestellt, was sich aus dem Zeitschalenmodell zu möglichen Raumsystemen in der Nähe des Urknalls herleiten lässt. Alle gezeigten Zustände sind nach den Prinzipien des Zeitschalenmodells möglich. Ob sie aber wirklich so oder vielleicht auch anders existieren, kann man nicht überprüfen. Wie bereits erwähnt, gelangen aus der Nähe des Urknalls keine Informationen zu uns, und die bekannten Versuche mit Teilchenbeschleunigern liefern lediglich die Ausgangsdaten für das hier Gezeigte.

Mit neueren Forschungen wie denen am CERN bei Genf wird mit sehr großen Energiedichten nach den bereits erwähnten Anfangszuständen gesucht, aus denen die Naturkonstanten hervor gehen sollen. In diesem Zusammenhang sei hier nur das Higgs-Teilchen erwähnt. Die beschriebenen Raumsysteme wären bereits bei erheblich geringerer Energie möglich, wenn sich höher dimensionale Zustände in einem größeren Raum ausbreiten könnten.

In Teilchenbeschleunigern konzentriert sich die Energie aber immer auf einen sehr kleinen Bereich, an dem die Teilchen aufeinander treffen. Dann entstehen unter dem Einfluss der heute vorhandenen Dichte der Materie und der jeweils drei Raum- und Zeit-Dimensionen alle in der Atomphysik bekannten Elementarteilchen, von denen die meisten dann sehr schnell wieder zerfallen. Es ist also nicht zu erwarten, dass die Ergebnisse neuerer Versuche irgendwelchen Aufschluss über mögliche Raumsysteme geben könnten - wer genügend Zeit dafür haben sollte, kann es aber gerne nachprüfen.

A.4 Tesla-Energie-Übertragung

Ein Tesla-Transformator kann mit den üblichen Formeln der Elektrotechnik berechnet werden. Die Ausgangsgröße hierzu ist jeweils die Resonanzfrequenz fR der beiden LC-Schwingkreise der Primär- und Sekundärspule:

mit:

L = Induktivität

C = Kapazität

 

Dabei errechnet sich die Kapazität C nach folgenden Formeln:

 

für den Plattenkondensator:

für den Kugelkondensator:

mit:

ε0 = elektrische Feldkonstante

εr = Dielektrizitätszahl

A = Fläche einer Platte

d = Plattenabstand

r = Radius der Kugel

 

Die Induktivität L errechnet sich nach der Wheeler-Gleichung:

 

für eine Zylinderspule:

für eine Tesla-Flachspule:

mit:

r = mittlerer Radius der Spule

N = Anzahl der Windungen

l = Länge der Spule; bei einer Flachspule: Außenradius - Innenradius

 

Aus der Kapazität und der Frequenz ergibt sich der In den Spulen fließende Strom und mit der Spannung die Leistung, die maximal drahtlos übertragen werden kann. Wie bei jedem Transformator entspricht das Verhältnis der Spannungen im Primär- und Sekundärkreis dem Verhältnis der Anzahl der Windungen.

Um die Funktion eines Tesla-Transformators und die drahtlose Energie-Übertragung vollständig mathematisch zu beschreiben, benötigt man die Lösungen der Differentialgleichungen der Feldtheorie und die Maxwellschen Gleichungen. Damit kann man auch erklären, warum im Energiefeld eines Tesla-Transformators Leuchtstoffröhren ohne Stromanschluss leuchten oder elektronische Schaltkreise wie die Ansteuerungen von Energiesparlampen durchbrennen können. Für Details hierzu verweise ich auf die Literatur.

A.5 Tornadomaschine

Zustandsgrößen bei der Ein- und Ausströmung eines Gas-Potentialwirbels

 

Druck p nach Bernoulli:

mit:

v = Geschwindigkeit im Wirbel

p0 = Umgebungsdruck

ρ0 = Dichte der umgebenden Luft

 

Dichte ρ aus adiabatischer Ausdehnung:

mit:

κ = Adiabaten-Exponent

 

Temperatur T gemäß allgemeiner Gasgleichung:

 

mit:

T0 = Umgebungstemperatur

 

Für Diagramm: p0 = ρ0 = T0 = 1 (relative Größen);

Adiabaten-Exponent: κ = cp / cV;

cV nach Maxwell: cV = f / 2 R'; cp = const.

 

mit:

cp = Wärmekapazität bei konstantem Druck

cV = Wärmekapazität bei konstantem Volumen

f = Anzahl der Freiheitsgrade

R' = spezifische Gaskonstante

 

 

Bei hoher Geschwindigkeit (nahe der Molekülgeschwindigkeit bei ca. 500 m/s) gehen bei der Zuströmung zwei der drei Freiheitsgrade der Molekülbewegung verloren. Aus den ungeordneten Bewegungen der Temperatur wird die Geschwindigkeit im Wirbel. So bleibt nur der Freiheitsgrad in Fließrichtung erhalten. Dabei ändert sich cV von 3/2 R' auf 1/2 R'. κ wird drei mal so groß. Der Übergang von drei Freiheitsgraden auf einen hängt dabei mit der Verteilung der Geschwindigkeiten in einem Gas nach Maxwell zusammen. Bei der Ausströmung gibt es wieder drei Freiheitsgrade, und es gilt der Anfangswert für κ. Für das Diagramm der Einströmung wurde κ näherungsweise mit einer Potenzfunktion berechnet (κ = 1,5 + 0,2 v^8). Für die Ausströmung wurde κ = 1,5 angenommen.

 

Reibungsverlust bei der Durchströmung der Schauberger-Spiralen

 

nach dem allgemeinen Fließgesetz der Rohrhydraulik

 

Verlustleistung Pv:

 

mit:

l = Länge des Rohres oder Kanals

d = hydraulischer Durchmesser = 4 A / U

A = durchströmte Fläche

U = Umfang der durchströmten Fläche

ρ = Dichte des strömenden Gases

v = Fließgeschwindigkeit

 

Verlustbeiwert λ;

 

laminar:

 

turbulent, hydraulisch glatt:

 

turbulent, hydraulisch rau:

 

mit:

Re = Reynoldszahl = v d/ν

ν = kinematische Viskosität (für Luft ca. 2 10-6 m²/s)

k = Rauigkeit (für Kunststoff oder Messing ca. 0,0015 mm)

 

A.6 Schaubergers Repulsine

Zum Elektronen-Potentialwirbel und zur Kernfusion mit Elektronen-Einfang und Neutronen-Anlagerung gibt es keine speziellen Formeln, da es dazu bisher nur die vorgestellte geometrische Betrachtung gibt. Nach Einstein (E = m c²) ergibt sich die bei der Kernfusion aus einem kg Masse gewonnene Energie E in MWh zu:

 

mit:

m1, m2 = gemessene Atommassen (1H1: 1,007825; 2He4: 4,0026)

A1, A2 = Massenzahlen (H: 1; He: 4)

c = Lichtgeschwindigkeit (300.000.000 m/s)

 

Die bei einer Repulsine aus einem kg Wasser gewonnene Energie Ew beträgt somit: Ew = E * 2 / 16 (2 x Wasserstoff H: A = 1; Sauerstoff O: A = 16).

 

 

A.7 Interstellare Raumschiffe

Die in Kapitel 3.5 Tabelle 3.5.1 gezeigten Reisezeiten und Geschwindigkeiten berechnen sich nach dem Zeitschalenmodell mit dem Raumzeit-Winkel α. Der ergibt sich, wenn man die Zusammenhänge, die sich aus den Formeln der Lorentz-Transformation zur Relativitätstheorie ergeben, anschaulich in der Raum-Zeit-Ebene darstellt. Abbildung A.7:1 zeigt, wie sich dabei die effektive Geschwindigkeit des Raumschiffs veff und die damit verbundene Verkürzung der Zeit (Zeitdilatation nach Lorentz) zu der auf die Erde bezogenen Geschwindigkeit v verhalten.

 

Abbildung A.7:1; Die Lichtgeschwindigkeit

 

Wenn man mit einem Raumschiff die erste Hälfte der Strecke mit der Intensität a beschleunigt und die zweite Hälfte mit der selben Intensität bremst, ergeben sich für eine zurück gelegte Strecke s folgende Werte:

 

für die auf das Raumschiff bezogene Reisezeit:

für die effektive Geschwindigkeit:

für den Raumzeit-Winkel:

und für die auf die Erde bezogene Geschwindigkeit:

mit:

a = Beschleunigung in m/s²

c = Lichtgeschwindigkeit (300.000.000 m/s)



A.8 Parallelwelten und Zeitreisen

Ein Vertauschen von Raum und Zeit, wie es in Kapitel 4.2 für den Übergang zwischen zwei Parallelwelten beschrieben ist, kann sich niemand wirklich vorstellen. In einer Raum-Zeit-Darstellung, bei der die drei Raum-Dimensionen R waagerecht und die drei Zeit-Dimensionen Z senkrecht verlaufen, ergibt sich jedoch für die 'Ströme' nach den Zeitschalenmodell eine mögliche Umlagerung, bei der nur wenige 'Ströme' ihre Richtung ändern.

Abbildung A.8:1 zeigt diesen Übergang links für Proton und Elektron (u + u + d + e) und rechts für das Neutron (u + d + d). Bei der Vertauschung von Raum und Zeit (R, Z zu R', Z') werden - auf R und Z bezogen - aus dem Elektron e ein Elektron-Anti-Neutrino ν̅e, aus einem Up-Quark u ein Anti-Down-Quark d̅ und aus einem Down-Quark ein Anti-Up-Quark u̅.

 

Abbildung A.8:1; Übergang zwischen Parallelwelten

 

 

Mit der gezeigten Umlagerung bleibt für das betroffene Teilchen die Zeit stehen und es bewegt sich mit Lichtgeschwindigkeit durch den Raum (R oder Z'). Nach dem 'Prinzip der Gleichzeitigkeit' wechselt es den Ort, ohne dass dabei Zeit vergeht. Die in unseren drei bekannten Dimensionen messbare Lichtgeschwindigkeit ergibt sich dabei aus der senkrechten Durchdringung zweier Ströme in den sechs Dimensionen der 'Raumzeit'. So kann die Titanic beim Übergang zur nächsten Parallelwelt in einem Augenblick zum nächsten vom Wrack auf dem Grund des Eismeeres als unbeschädigtes Schiff in den New Yorker Hafen gelangen.

Dabei erfolgen alle Veränderungen über die von den sechs Dimensionen unabhängige 'absolute Zeit' ausschließlich in Raum-Richtung. In den jeweiligen Parallelwelten sind Veränderungen immer mit dem 'Fluss der Zeit durch das Universum' in den drei Zeit-Dimensionen Z gekoppelt, wie es die Relativitätstheorie beschreibt.

Ein Raumschiff, das, wie in Kapitel 4.2 beschrieben, als Zeitmaschine einen Übergangsbereich durchdringt, sollte auf keinen Fall in einen Bereich hinein geraten, in dem es eine große Veränderung in der 'absoluten Zeit' gibt. Mit einer vollständigen Abschirmung des elektromagnetischen Feldes ist nur eine Beeinflussung der Zeit-Richtung mit der von der Intensität des Elektronen-Potentialwirbels abhängigen Dichte der Materie möglich. Damit ist der sicherste Ort für eine Zeitreise weit draußen in der Leere des Weltraums.

Möglicherweise ist beim Philadelphia-Experiment das Schiff im Übergangsbereich zur nächsten Parallelwelt in einen solchen Bereich einer Änderung hinein geraten, was einen Ortswechsel mit Lichtgeschwindigkeit zur Folge hatte. Dabei verhinderte nur eine vollständige Abschirmung des elektromagnetischen Feldes eine Auflösung des Schiffes in seine atomaren Bestandteile wie im Beispiel mit der Titanic.

Mit den Übergängen zwischen den Parallelwelten zeigt sich auch ein anderer Aspekt zu den in Kapitel 2.4 erwähnten Anteilen von Materie und Antimaterie im Universum, die nach dem 'Prinzip der gegensätzlichen Pole' exakt gleich groß sein müssen. Im Übergangsbereich wird die Materie zur Antimaterie, woraus sich über die drei Zeit-Dimensionen hinweg ein Mischzustand mit exakt gleich großen Anteilen aus Materie und Antimaterie ergibt. Dabei bleibt die Materie auf der in der 'Raumzeit' dem Urknall gegenüber liegenden Seite des Universums selbstverständlich auch weiterhin auf unsere Richtung der Zeit bezogen Antimaterie.

Impressum

Tag der Veröffentlichung: 30.04.2017

Alle Rechte vorbehalten

Widmung:
Titelbild (Katzenaugennebel NGC 6543), Abbildungen 2.2.1:4 und 2.3.2:1: Pixabay.de

Nächste Seite
Seite 1 /