Quantenchaos
Grundlage einer neuen Technologie

Im Mai 2006 wurde von mir am Atominstitut der Österreichischen Universitäten ein Vortrag zum Thema Quantenchaos als Grundlage einer neuen Technologie gehalten. In diesem umfangreichen Artikel zum Vortrag wird neben meinen eigentlichen Forschungen an kosmologisch bedingten Zyklen bei physikalischen Rauschgeneratoren auch auf die Quantentheorie als mögliche Grundlage der beobachteten Effekte eingegangen.

Inhalt:
1.        EINLEITUNG
2.        QUANTENTHEORIE
2.1.      Das Unschärfeprinzip
2.2.      Überlagerung (Superposition)
2.3.      Verschränkung (engl. Entanglement)
2.4.      Quanteninformationstheorie
2.5.      Quantencomputer
2.5.1.   Erzeugen von Zufallszahlen
2.5.2.   Paralleles Rechnen
2.5.3.   Entropiefreies Rechnen
2.5.4.   Shor Algorithmus
2.6.      Quantenkryptographie
2.6.1.   Allgemeines zur Kryptographie
2.6.2.   Quantenphysikalische Schlüsselübertragung
2.7.      Makroskopische Quanteneffekte
3.         RAUSCHGENERATOREN
3.1.      Physikalische Rauschquellen
3.2.      Analoges Rauschen
3.2.1.   Rauschen mit Frequenzbegrenzung
3.2.2.   Aufbau eines analogen Rauschgenerators
3.3.      Digitalisiertes Rauschen
3.3.1.   Zufällige Bitströme
3.3.2.   Symmetrierung von Bitströmen
3.3.3.   Konvertierung von Bitströmen
3.3.4.   Aufbau eines digitalen Rauschgenerators
3.3.5.   Quanten-Rauschgenerator
3.3.6.   Radioaktiver Zerfall als Zufallsquelle
3.4.      Arithmetische Pseudogeneratoren
3.4.1.   Aufbau eines digitalen Pseudogenerators
3.5.      Mikrowellenbillard
4.         EXTERNE EINFLÜSSE AUF CHAOTISCHE PROZESSE
4.1.      Klassische Einflüsse
4.1.1.   Einfluss des Luftdrucks
4.2.      Einflüsse des Bewusstseins
4.2.1    Statistische Analyse
4.3.      Klassische Analyseverfahren
4.3.1.   Fourier Analyse
4.3.2.   Differentiation
4.3.3.   Wellensimulation
4.4.      Kosmologische Einflüsse
4.4.1.   Histogramme
4.4.2.   Vergleich von Histogrammformen
4.4.3.   Richtungsempfindlichkeit
4.4.4.   Aufzeichnung
4.4.5.   Ost-West Ausrichtung
4.4.6.   Nord-Süd Ausrichtung
4.4.7.   Absolute Zeit des Einflusses
4.4.8.   Zwei autarke Rauschquellen
4.4.9.   Die gespiegelten Histogramme
4.4.10. Interpretation der Ergebnisse
4.5.      Automatisierte Analyse von Zufallswerten
4.5.1.   Ziel unserer Arbeit
4.5.2.   Anforderungen bei der Erstellung von Programmen in der Forschung
4.5.3.   Grundlagen
4.5.4.   Das Verfahren
4.5.5.   Vorgaben und Ergebnisse
5.         MÖGLICHE ANWENDUNGEN
5.1.      Datenübertragung
5.2.      Beeinflussung von Entropie
5.3.      Makroskopische Quantencomputer
5.4.      Alternative Medizin
5.5.      Morphogenetisches Feld
6.         SCHLUSSWORT


1.    Einleitung

Zufall und Chaos spielen in unserer heutigen Wissenschaft nur eine sehr untergeordnete Rolle. Da sich die Wissenschaft das Ziel gesetzt hat, alle nur erdenklichen Vorgänge erklärbar und vor allem auch berechenbar zu machen, sind zufällige und damit unvorhersagbare Ergebnisse unerwünscht und werden meist sogar als Fehler angesehen. Speziell in der Mathematik, die als Formalwissenschaft widerspruchsfrei formuliert sein muss, lässt sich der Zufall nur sehr schwer integrieren.
Die wissenschaftliche Beschäftigung mit Zufall und Chaos hat somit schon ganz prinzipiell den Ruf des nicht seriösen Arbeitens und wird daher gerne in den Bereich der Scharlatanerie verwiesen.

Die Statistik ist eine der wenigen wissenschaftlichen Disziplinen, die es überhaupt wagt, sich dem Thema des Zufalls zu nähern und sie tut das mit der entsprechenden Vorsicht auch nur auf einem sehr oberflächlichen Niveau.
Obwohl statistische Methoden heute zuverlässig z.B. in der Qualitätssicherung eingesetzt werden, um Fehler in Fertigungsprozessen aufzudecken, ist es doch zuletzt eine indirekte Bestärkung der Mathematik, die von sich heraus solche zufälligen Abweichungen in Prozessen gar nicht zulassen würde.

Erst in jüngster Zeit wurde eine Theorie populär, in welcher der Zufall ein fixer Bestandteil ist: Die Quantentheorie. Sie ist damit die erste wissenschaftlich fundierte Theorie überhaupt, die von zufällig ablaufenden Prozessen ausgeht und sie integriert. Das hat in den Anfängen der Quantentheorie zu einem großen Unverständnis bei den Wissenschaftlern geführt. Als populärste Aussage zu diesem Thema ist der berühmte Satz von Albert Einstein „Gott würfelt nicht“ zu erwähnen. Er spiegelt wohl am besten die Abneigung der wissenschaftlichen Welt gegenüber einer Theorie wieder, die nicht bis zur letzten Konsequenz berechenbar und vorhersagbar ist.

Heute hat sich das Verständnis zugunsten der Quantentheorie gewandelt. Erfolgreiche Experimente haben ihre Richtigkeit bestätigt und erste funktionierende Geräte, z.B. in der Quanten Kryptographie werden bereits auf den Markt gebracht.

Auch im grenzwissenschaftlichen Bereich erfährt die Quantentheorie eine sehr große Beliebtheit. Viele bislang unerklärliche Phänomene können unter zu Hilfenahme der Quantentheorie zumindest ansatzweise erklärt werden. So werden vor allem im alternativmedizinischen Bereich viele Produkte im Sinne der Quantentheorie beworben, auch wenn nicht überall wo „Quant“ draufsteht wirklich Quantentechnologie drinnen ist.

Die Quantentheorie ist somit zu einem weit verbreiteten, aber nicht immer verstandenen Diskussionsthema geworden. Wenden wir uns deshalb zunächst einmal den Grundlagen der Quantentheorie zu.

2.    Quantentheorie

Die Quantentheorie, manchmal auch Quantenmechanik oder Quantenphysik genannt, ist eine noch sehr junge Disziplin der Physik. Der deutsche Physiker und Nobelpreisträger Max Plank (1858-1947) gilt als Begründer der Quantentheorie. Max Plank postulierte im Jahr 1900 nach Präzisionsmessungen im langwelligen Spektralbereich, dass Energie nur in ganz bestimmten, diskreten Einheiten, den Quanten, auftritt.

Dabei ging es zunächst noch gar nicht um zufällig ablaufende Prozesse, sondern nur um abweichende Messungen zu den damals üblichen Berechnungsmethoden. Zu seinen Ehren wird in der heutigen Quantentheorie das planksche Wirkungsquantum h verwendet. Quantenphysikalische Phänomene stehen häufig im Widerspruch zu den aus dem Alltag bekannten und beobachtbaren Vorgängen. Folgend sind die wichtigsten Punkte dazu aufgeführt.

2.1.    Das Unschärfeprinzip

Werner Heisenberg formulierte 1927 die Unschärferelation. In der Physik wird sie als die Unmöglichkeit der gleichzeitigen und beliebig genauen Messung von Geschwindigkeit und Ort eines Teilchens beschrieben. Sie basiert direkt auf der Quantelung von Energie, wonach für die Kopplung zwischen Messgerät und Messobjekt keine beliebig kleine Energiemenge benutzt werden kann, sondern mindestens ein Quant notwendig ist. Das führt immer automatisch zu einer gewissen Veränderung des Messobjekts durch das Messgerät, wodurch die Unschärfe letztendlich entsteht. Je kleiner das Messobjekt wird, umso größer wird demnach die Verfälschung durch das Messgerät. Aus diesem Grund äußert sich die Unschärfe vor allem im mikroskopischen Bereich.

In der heute üblichen Technik werden quantenphysikalische Situationen meist im optischen Bereich mit einzelnen Photonen hergestellt. Dabei wird nicht Ort und Geschwindigkeit gemessen um eine Unschärfesituation herbeizuführen, sondern z.B.die Polarisation der Photonen.
Wird die horizontale oder vertikale Polarisation je einem Grundzustand zugeordnet, aber 45° polarisierte Photonen gemessen, dann erhält man die Ergebnisse mit einer Wahrscheinlichkeit von jeweils 50% in einem der Grundzustände. Die Quantenphysik erfüllt dabei nach wie vor die aus der makroskopischen Welt bekannten Gesetze. Wenn 45° polarisiertes Licht auf einen 90° eingestellten Polfilter trifft, dann misst man dahinter genau die halbe Lichtmenge, es werden nur 50% der im Lichtstrahl enthaltenen Photonen den Filter passieren.

Beim Übergang in die Quantenwelt gilt diese 50% Aufteilung nach wie vor, nur kann aufgrund der Quantisierung der Lichtmenge für das einzelne Photon keine solche Aufteilung mehr stattfinden. Es wird vollständig in einem der beiden Grundzustände gemessen. Welches Photon wie gemessen wird, kann dabei nicht vorhergesagt werden.

Sobald die Messung einmal durchgeführt wurde, ist jede weitere Messung nicht mehr sinnvoll, da sie immer wieder den gleichen Grundzustand liefern würde und meist sogar das Photon bei der Messung verloren geht. Man könnte auch sagen, dass vor der Messung das Photon als eine Überlagerung beider möglicher Grundzustände existiert hat und nach der Messung in einen der beiden Zustände zurück gefallen ist.

Die Erkenntnis um die Unschärfe führte zu einem gewissen Unmut bei anderen Wissenschaftlern, denn man nahm bisher an, dass Messungen mit jeder beliebigen Genauigkeit durchgeführt werden können.

Erwin Schrödinger brachte diesen Unmut in seinem legendären Gedankenexperiment zum Ausdruck, dass wir als „Schrödingers Katze“ kennen. Mit diesem etwas makaberen Gedankenexperiment wollte er zunächst die Unvollständigkeit der Quantentheorie zeigen und wie absurd ihre Anwendung auf das tägliche Leben ist.

2.2.    Überlagerung (Superposition)

„Schrödingers Katze“ bringt aber gleichzeitig eine weitere Quanteneigenschaft ins Spiel, die Überlagerung. Quantenzustände können einander überlagern, ohne sich gegenseitig zu beeinflussen.
In Schrödingers Gedankenexperiment wird eine Katze in einer Kiste eingeschlossen, in der sich ein Mechanismus zur Freisetzung eines tödlichen Gifts befindet. Der Zeitpunkt der Auslösung wird aus einem radioaktiven Zerfall abgeleitet und ist somit zufällig, also nicht vorhersagbar.
Solange wir die Kiste nicht öffnen, um nachzusehen, müssen wir annehmen, dass die Katze gleichzeitig tot und lebendig ist, ein Zustand, den unsere Logik ganz offensichtlich verbietet.

Dennoch widerspiegelt es einige grundlegende Aspekte der Quantentheorie, obwohl die eigentlichen Kernaussagen durch diese bildhafte Darstellung leider etwas verloren gehen und daher oft auch falsch interpretiert werden.
Zum einen spielt es auf die gleichzeitige Überlagerung von zwei möglichen Zuständen, tot und lebendig an, der nicht zuletzt auch durch den Beobachter massiv beeinflusst wird. Erst wenn dieser in die Kiste blickt, springt der Zustand unwiderruflich in einen der möglichen Grundzustände.
Zum anderen kommt darin der Zufallscharakter in Form des radioaktiven Zerfalls zum Ausdruck.

Im Fall des radioaktiven Zerfalls drückt sich die Unschärfe dadurch aus, dass keine konkrete Aussage über den Zerfallszeitpunkt eines bestimmten Teilchens gemacht werden kann. Zwar können wir leicht mit Hilfe von statistischen Methoden die so genannte Halbwertszeit ermitteln, die angibt, nach welcher Zeit die Hälfte der vorliegenden Atome zerfallen ist. Dennoch ist es unmöglich vorherzusagen, welche Atome das sein werden, dies bleibt dem Zufall überlassen.

Auch die bekannten Experimente am Doppelspalt zum Welle-Teilchen Dualismus des Lichtes könnte man als die Überlagerung von zwei möglichen Zuständen interpretieren. Werden Photonen durch eine Anordnung mit zwei Spalten im Bereich der Wellenlänge des Lichtes geschickt, so tritt dabei auch dann noch das Intereferenzmuster auf, wenn nur noch einzelne Photonen hintereinander gesendet werden. Die Photonen müssen demnach gleichzeitig durch beide Spalte gegangen sein.
Dieses Paradoxon basiert nur auf unserer Vorstellung von diskreten, räumlich abgegrenzten Teilchen. Die Quantenphysik ist heute generell dazu übergegangen, nur den Wellencharakter eines Teilchens zu betrachten. Demnach gibt es keine räumlich abgegrenzten Teilchen, sondern immer nur Wellenfunktionen, die mit einer gewissen Wahrscheinlichkeitsamplitude einen bestimmten Raum ausfüllen. Unter dieser Betrachtung sind Phänomene wie die Interferenz von einzelnen Photonen sehr einfach erklärbar und strapazieren nicht unsere Vorstellungen von der Realität.

2.3.    Verschränkung (engl. Entanglement)

Quantenverschränkung, oder manchmal auch Quantenkorrelation genannt  tritt bei zwei oder mehr Teilchen eines zusammengesetzten quantentechnischen Systems auf. So können z.B. aus einem Lichtstrahl mit Hilfe eines doppelbrechenden Kristalls so genannte Zwillingsphotonen erzeugt werden, deren Polarisation miteinander verschränkt ist.

Wenn zwei miteinander verschränkte Teilchen voneinander entfernt werden, dann wirkt sich selbst über große Entfernungen eine Veränderung an einem Teilchen sofort und unmittelbar auf das andere aus.
Die Voraussetzung dafür ist, dass die Eigenschaften im Gesamtsystem der beiden Teilchen erhalten bleiben. Nimmt ein Teilchen die Eigenschaft „Plus“ an, so ändert sich das andere nach „Minus“. Was in der thermodynamischen Betrachtungsweise bedeutet, dass sich dadurch die gesamte Entropie des Systems nicht ändert.
Verschränkung ist somit ein Ausdruck des ständigen Gleichgewichts aller Dinge und trägt auch den Aspekt der Polarität in sich.

Die Verschränkung ist eine logische Konsequenz aus dem Unschärfeprinzip und dem Überlagerungsprinzip bei der Betrachtung von Mehrteilchensystemen.
Vor der Messung befinden sich beide Teilchen in einer Überlagerung aller möglichen Grundzustände. Der letztlich gemessene Zustand war somit schon vor der Messung latent vor Ort vorhanden. Aus diesem Grund ist es auch nicht möglich, alleine über verschränkte Quantenzustände Information zu übertragen. Letztlich unterliegt es dem Zufall in welcher Lage man ein Teilchen misst, das Gegenüber misst nur genau den umgekehrten Zustand.

Ursprünglich nur in mikroskopischen Systemen beobachtet, konnte die Verschränkung mittlerweile aber auch schon über makroskopische Entfernungen z.B. in der Quantenkryptographie hergestellt werden.

Einstein als entschiedener Gegner der Quantentheorie bezeichnete die Verschränkung auch immer wieder gerne als „Spukhafte Fernwirkung“ und vermutete noch verstecke Parameter, die bisher noch nicht erforscht worden waren.

2.4.    Quanteninformationstheorie

In der heutigen Informationstheorie, die auf der Arbeit von Claude Elwood Shannon basiert, ist es üblich die kleinste Informationseinheit, das Bit (binary digit), als eine logische ja/nein Entscheidung zu definieren. Ein Bit kann immer nur einen aus zwei genau definierten Zuständen annehmen.
Aus der Quantenphysik lässt sich aber durch das Überlagerungsprinzip eine erweiterte Informationstheorie ableiten, die so genannte Quanteninformationstheorie.
Die Quanteninformationstheorie definiert analog zum Doppelspaltexperiment folgende Informationszustände:
1.    Logisch 0, das Photon ging durch den ersten Spalt.
2.    Logisch 1, das Photon ging durch den zweiten Spalt.
3.    Überlagerung aus 1. und 2., das Photon ging gleichzeitig durch beide Spalten.
Eine Informationseinheit die diese drei Zustände annehmen kann nennt man in Anlehnung an die herkömmliche Definition ein QBit (Quanten Bit).
Diese Definition darf nicht mit einer trinären Logik verwechselt werden, bei der es auch drei logische Zustände gibt, die aber alle eindeutig definiert sind.
Der wesentliche Unterschied des QBits ist der 3. Zustand. Die Überlagerung beider möglicher Grundzustände, die oft auch als Superposition bezeichnet wird, ist von ihrem Wesen her unbestimmt. Bei der Messung dieses Zustandes bleibt es dem Zufall überlassen, welchen Grundzustand man letztendlich misst.
Dabei kommt aber zusätzlich die Wahrscheinlichkeitsamplitude mit ins Spiel, was aus dem Vergleich mit den polarisierten Photonen ersichtlich wird. Wenn z.B. mit 22,5° polarisiertes Licht gemessen wird, so ist die Wahrscheinlichkeit es in der 0° Lage zu messen 75% und nur zu 25% misst man es in 90°.
Wenn demnach im überwiegenden Maße ein bestimmter Grundzustand in ein QBit eingespeichert wurde, so ist die Wahrscheinlichkeit diesen auszulesen wesentlich höher, als für den anderen Grundzustand. Im weitesten Sinn kann das mit einem analogen Rechner verglichen werden, der ebenfalls mit unendlich vielen Zuständen arbeiten kann.

Das sieht zunächst nicht sehr hilfreich aus, um damit Informationsverarbeitende Systeme bauen zu können. Bei herkömmlichen Rechnern hätte das zufällige umkippen eines Bits sogar fatale Folgen und wird daher mit allen möglichen Mitteln wie Optimierung der Hardware, bis hin zur Fehlerkorrektur vermieden.
In Quanteninformationssystemen hingegen wird versucht den undefinierten Zustand möglichst lange aufrechtzuerhalten. Unter zu Hilfenahme eines weiteren, Quantentechnischen Aspektes, der Verschränkung, können damit sehr leistungsfähige Rechensysteme gebaut werden.

2.5.    Quantencomputer

Für den Bau eines Quantencomputers werden mehrere QBits benötigt, die untereinander verschränkt sein müssen. Diese werden dann zu einem so genannten Quantenregister zusammengefügt. Die Möglichkeiten der Superpositionen steigen dabei exponentiell mit der Zahl der QBits an, wie auch die Größe der zu speichernden Zahlen bei herkömmlichen Registern.
Ein Quantenregister mit einer Breite von 8 QBit kann demnach nicht nur eine Zahl zwischen 0 und 255, sondern maximal alle 256 Zahlen zwischen 0 und 255 gleichzeitig speichern.

In diesem großen Speichervolumen liegt die Leistungsfähigkeit der Quantencomputer begründet. Zum Vergleich: Ein Quantenregister mit den heute üblichen 32 Bit Breite könnte demnach 16 GB an Daten speichern und das nur mit 32 (!) Informationsträgern.

Der Hauptgrund, warum herkömmliche Computer nie so leistungsfähig werden können wie Quantencomputer, ist die enorm große Anzahl von Verschränkungen zwischen den einzelnen QBits eines großen Quantenregisters. Um ein solches mit herkömmlicher Technik nachzubilden, wäre es notwendig zwischen allen Bits des Registers untereinander Querverbindungen mit entsprechenden Schaltelementen vorzusehen. Mit steigender Registerbreite erreicht man so sehr schnell Größenordnungen, die physikalisch nicht mehr zu verwirklichen sind. Mit einer Bitbreite von nur 250 QBits erreicht man schon eine Anzahl von Verschränkungen, die der Anzahl aller Atome im Universum entspricht, die derzeit auf etwa 10^78 geschätzt wird. (2^250 ~ 10^75).

Für die Funktion des Quantencomputers bedeutet dies, dass er eine physikalisch nicht mehr verwirklichbare, Anzahl von Verbindungsleitungen durch die virtuellen Verbindungen zwischen verschränkten Teilchen im materielosen Raum ersetzt. Man könnte auch sagen, die Verkabelung eines Quantencomputers erfolgt in den unsichtbaren Strukturen des Universums.

Doch kein Vorteil ohne Nachteil. Beim Auslesen eines Quantenregisters ist es dem Zufall überlassen, welchen der gespeicherten Werte man letztendlich erhält. Jedoch wird immer nur einer aus jenen Werten zurückgeliefert, die vorher auch im Register gespeichert wurden, so dass den Verhalten doch eine gewisse Systematik zugrunde liegt, die ausgenutzt werden kann.

Wenn der Algorithmus entsprechend an das System angepasst wird, dann kann die enorme Speicherfähigkeit trotz des zufälligen Charakters gezielt ausgenutzt werden.

2.5.1.    Erzeugen von Zufallszahlen

So ist es nicht verwunderlich, dass die einfachste Aufgabe für einen Quantencomputer das Erzeugen von Zufallszahlen ist. Dazu lädt man ein zunächst leeres Quantenregister mit allen möglichen Zahlen, die nachher die Zufallsmenge bilden sollen.
Danach liest man das Quantenregister einfach aus. Dabei fällt es mit gleich verteilter Wahrscheinlichkeit auf einen der vorher gespeicherten Zahlenwerte zurück. Werte die vorher nicht geladen wurden werden trotz des zufällig wirkenden Charakters nie erreicht.
Um mit dem Laden aller möglichen Zustände sinnvoll umgehen zu können, gibt es auf einem Quantencompuer einen speziellen Befehl, der alle QBits in die Überlagerung beider Grundzustände versetzt.

2.5.2.    Paralleles Rechnen

Ein wesentliches Merkmal von informationsverarbeitenden Systemen ist nicht nur das Speichern großer Datenmengen, sondern auch das Durchführen von Rechenoperationen. Dies gilt natürlich auch für einen Quantencomputer. Die vorher beschriebenen Eigenschaften eines Quantenregisters müssen aber auch beim Ausführen einer Rechenoperation erhalten bleiben.
Das bedeutet, wenn eine Rechenoperation auf ein Quantenregister angewandt wird, so müssen gleichzeitig alle im Quantenregister gespeicherten Zahlenwerte dieser Rechnung unterzogen werden. Das bedeutet, dass Quantencomputer in der Lage sind, im extremen Maße parallele Rechnungen durchzuführen.
Um das an einem Beispiel zu verdeutlichen: In einem herkömmlichen 32 Bit Register können zwar über 2 Milliarden verschiedene Zahlen gespeichert werden, um aber z.B. zu 2 Milliarden Zahlen jeweils eine 1 zu addieren, muss ein herkömmlicher Rechner eine Schleife 2 Milliarden mal durchlaufen und dabei jeden Zahlenwert einzeln bearbeiten.
Sind die 2 Milliarden Zahlen hingegen in einem Quantenregister gespeichert, so reicht eine einzige Addition aus, um zu allen Zahlen gleichzeitig eine 1 zu addieren.

Der Nachteil des Quantencomputers ist wiederum, dass es beim Auslesen des Registers nicht bestimmt ist, welches Ergebnis man letztendlich zurückbekommt. Aber egal welches es auch sein mag, es ist letztendlich um 1 erhöht worden. Waren vor der Addition z.B. nur gerade Zahlen im Quantenregister gespeichert, so wird man nach der Addition von 1 immer nur eine ungerade Zahl als Ergebnis zurückbekommen, man weiß nur nicht, welche es sein wird.

2.5.3.    Entropiefreies Rechnen

Damit ein Quantenregister bei einer Rechenoperation dieses Verhalten zeigt, ist es wichtig, dass durch die Rechenoperation keine zusätzliche Unordnung (=Entropie) entsteht, dass also keine Information verloren geht.
Viele, aus der herkömmlichen Logik bekannte Schaltelemente können für den Quantencomputer daher nicht benutzt werden.
Nehmen wir z.B. nur einmal das bekannte UND-Gatter. In der einfachsten Form hat es zwei Eingänge und  nur einen Ausgang. Ihm werden demnach zwei Informationseinheiten zugeführt, wobei aber nur noch eine herauskommt. Es tritt also ein Informationsverlust von einem Bit auf.
Wenn als Informationsträger z.B. elektrische Ladungen verwendet werden, so wird bei der UND-Verknüpfung eine davon vernichtet, was in elektronischen Schaltungen gleichbedeutend mit einer Erwärmung durch Verlustleistung ist. Die Erwärmung aufgrund dieser „Rechenabwärme“ spielt heute auch bei der Entwicklung von hoch integrierten Prozessoren eine Rolle.

Um überhaupt ein verlustloses Schaltelement herstellen zu können ist es nötig, dass es gleich viele Ausgänge wie Eingänge besitzt. Im einfachsten  Fall schleift man dazu einen der Eingänge unverändert auf den Ausgang durch.
Im Falle des UND erhält man so das gesteuerte UND dass ähnlich wie ein gesteuerter Schalter (engl. Gate) arbeitet.
Bei der Betrachtung der Ausgänge C und D aus dem gesteuerten UND fällt zunächst auf, dass mehr 0er herauskommen, als hineingeschickt wurden. Das lässt schon vermuten, dass hierbei Information verloren geht.
Dies wird klarer, wenn man versucht aus den Ausgangszuständen auf die Eingangszustände zurück zu schließen. Diese Zuordnung ist nicht mehr eindeutig möglich. Wenn nämlich die Steuerleitung logisch 0 ist, so kann man nicht mehr sagen, wie der originale Zustand des anderen Einganges vor der Verknüpfung war. Somit ist klar, dass durch die UND-Verknüpfung eine zusätzliche Unordnung erzeugt wird.

Es gibt aber auch in der herkömmlichen Logik ein Schaltelement, welches keine zusätzliche Unordnung in das System einbringt. Es ist das XOR auch exklusives ODER genannt, wenn es als gesteuerter Inverter (engl. controlled NOT) geschaltet wird. Der erste Eingang geht unverändert an den Ausgang weiter, der zweite wird in Abhängigkeit vom ersten Invertiert. Immer wenn der Eingang A logisch 1 ist, wird der Eingang B invertiert weitergeleitet.

Im Gegensatz zum gesteuerten UND fügt der gesteuerte Inverter keine zusätzliche Unordnung in das System ein. Aus jedem Ausgangszustand kann eindeutig wieder der Eingangszustand hergestellt werden. Führt man das XOR zweimal hintereinander aus, so ergibt sich keine Veränderung des Zustandes.
Dieser Umstand wird z.B. zur Verschlüsselung von Daten benutzt, wie später noch unter Punkt 2.6.1 beschrieben wird.

2.5.4.    Shor Algorithmus

Der Shor-Algorithmus ist eines der ersten technisch umgesetzten Prinzipien zur Ausnutzung des Quantenchaos. Da es bei diesem Vortrag auch um solche Anwendungsmöglichkeiten geht, soll er hier kurz vorgestellt werden.

Der Shor Algorithmus ist nach dem amerikanischen Mathematiker Peter W. Shor benannt, der ihn 1994 entwickelte.
Es ist einer der wenigen bis heute bekannten Algorithmen die speziell für einen Quantencomputer entwickelt wurden. Er bietet eine sehr effiziente Möglichkeit zur Faktorisierung einer Zahl. Faktorisierung ist eine sehr rechenintensive Aufgabe, was sich auch heute übliche Verschlüsselungsverfahren zunutze machen.

Es ist leicht auf jedem Taschenrechner das Produkt der beiden Primzahlen 27437 und 27449 zu berechnen. Doch wenn es darum geht die Primfaktoren der Zahl 753118213 zu bestimmen, werden sie wohl schon einen Computer dazu bemühen müssen.
So stieg mit der Rechenleistung der Computer auch die Länge der für die Verschlüsselung benutzten Primzahlen. Die Jagd nach extrem großen Primzahlen ist auch eine sehr lukrative Nebenbeschäftigung für Programmierer geworden, so mal immer wieder Prämien für große Primzahlen ausgesetzt werden.

Durch den Bau eines Quantencomputers mit einer Registerbreite von mehreren 100 QBits und mit Hilfe des Shor Algorithmus wäre die Asymmetrie in der Berechnungszeit gebrochen. Für die Faktorisierung würde nicht mehr wesentlich mehr Zeit benötigt, als für das Berechnen des Produktes. Aus diesem Grund gilt der Quantencomputer auch als größter Feind der RSA-Verschlüsselung (benannt nach den Mathematikern Rivest, Shamir und Adleman).

Die Mathematische Grundlage des Algorithmus basiert auf dem Rechnen mit Potenzreihen. In der Restklasse einer solchen Potenzreihe ist es möglich, über die Ordnung innerhalb der Reihe die Primfaktoren einer Zahl zu bestimmen. Dieser Algorithmus kann prinzipiell auch auf jedem normalen Rechner durchgeführt werden. Er bietet dort nur keinerlei Geschwindigkeitsvorteil gegenüber anderen Faktorisierungsmethoden, er ist im Gegenteil sogar langsamer.

Es soll die Zahl n=63 faktorisiert werden. Zunächst wählt man eine beliebige Zahl 2 < a < n, hier a=10. Dann  berechnet man die Potenzreihe a^x mod n für die Werte x=1,2,3,....
Eine solche Folge hat die Eigenschaft, dass sie nach spätestens n Werten periodisch wird. Ist n jedoch eine zusammengesetzte Zahl, so ist diese Periode in der Regel wesentlich kürzer. In unserem Beispiel tritt bereits nach 6 Werten die Periode auf.  Diese Periode bezeichnet man auch als die Ordnung der Zahl n zur Basis a. Mit Hilfe der Ordnung der Zahl n lassen sich über den ggT die beiden Primfaktoren von n berechnen.
Führt der Algorithmus nicht zum Ziel, so ist n entweder eine Primzahl, oder es muss ein anderes a gewählt werden.

Erst auf einem Quantencomputer kann dieser Algorithmus das parallele Rechnen ausnutzen und die Zufälligkeit beim Auslesen des Quantenregisters durch einen Trick ausschalten.

Im Falle des Quantencomputers lädt man das Quantenregister x mit einer Überlagerung aller möglichen Zustände. Dann rechnet man die Potenzreihe a^x mod n in einem Rechenschritt für alle möglichen x Werte aus. Hierin liegt der eigentliche Gewinn an Geschwindigkeit.
Doch nun hat man das Problem, dass als Ergebnis eine Überlagerung aller möglichen Werte herauskommt, die beim Auslesen einen beliebigen Wert daraus annehmen kann. Hier macht man sich zu Nutze, dass die Zahlenreihe im Ergebnis periodisch ist. D.h. es liegen die sich wiederholenden Werte mit einer erhöhten Wahrscheinlichkeitsamplitude innerhalb der Überlagerung vor. Durch die Anwendung der Fourier Transformation kann nun auch ohne das Wissen um alle Einzelergebnisse die Periode der Reihe bestimmt werden.

Interessantes Detail am Rande: Exakt die gleiche Formel der Potenzreihe findet auch bei Pseudozufallsgeneratoren Verwendung. Bei den so genannten Kongruenzgeneratoren wählt man für n ganz bewusst eine Primzahl, damit die Periode möglichst lang wird. Hier zeigt sich, dass Ordnung und Chaos sehr nahe beieinander liegen und direkt ineinander überführt werden können.

2.6.    Quantenkryptographie

2.6.1.    Allgemeines zur Kryptographie

Mit Verschlüsselungen kommt man im Umgang mit der heutigen Informationstechnologie immer häufiger in Berührung. Sicher hat auch schon jeder einmal von den Diskussionen rund um die Sicherheit von solchen Verfahren gehört.
Die Sicherheit des bekannten RSA-Verfahren, beruht z.B. darauf, dass für die Primfaktorzerlegung der Rechenaufwand extrem hoch ist, während es leicht ist, zwei Primzahlen miteinander zu multiplizieren.

Mit der Entwicklung leistungsfähiger Quantencomputer wäre das RSA-Verfahren ernsthaft gefährdet, wie wir bei der Shor-Faktorisierung unter Punkt 2.5.4 gesehen haben.
Generell gilt, dass alle Verfahren nur eine begrenzte Sicherheit bieten können, die im Wesentlichen von der Länge des benutzen Schlüssels abhängt.

Neben all diesen Verfahren, die hier nicht näher behandelt werden sollen, gibt es nur eines, das nach heutigem Wissensstand als absolut sicher einzustufen ist. Die Betonung sei hier ausdrücklich auf „nach heutigen Stand“ gelegt, denn wie dieser Vortrag auch zeigen soll, könnten zukünftige Entwicklungen in der Chaosforschung vielleicht auch dieses Verfahren gefährden, vor allem dann, wenn physikalische Zufallsgeneratoren zur Erzeugung des Schlüssels verwendet werden, die heute im Gegensatz zu Pseudozufallsgeneratoren sogar als extrem sicher gelten.

Die Rede ist von dem Verschlüsselungsverfahren nach Vernam, benannt nach dem Amerikaner Gilbert Vernam, das auch als OTP (One-Time-Pad) Verfahren bezeichnet wird. Dabei wird ein Schlüssel mit völlig zufälligem Inhalt und mit der gleichen Länge wie die zu verschlüsselnde Nachricht benötigt.

Anschließend werden Schlüssel und Nachricht miteinander XOR verknüpft. Wie unter Punkt 2.5.3 gezeigt wurde, ist das XOR eine entropiefreie Rechenoperation, bei der Verknüpfung geht demnach keine Information verloren.
Dennoch entsteht bei der Verschlüsselung aus jeden beliebigen Ausgangsdaten immer eine völlig zufällige Folge, die ebenso gut rein zufälligen Ursprungs sein könnte.
Jeder Schlüssel darf allerdings immer nur einmal benutzt werden wie der Name des Verfahrens schon nahe legt. Anderenfalls könnte man durch den Vergleich von verschiedenen  Nachrichten auf seine Struktur zurück schließen.

2.6.2.    Quantenphysikalische Schlüsselübertragung

Ziel der Quantenkryptographie ist es, einen Schlüssel abhörsicher vom Ort A nach Ort B zu übertragen. Damit kann die Nachricht nach dem OTP-Verfahren verschlüsselt werden.
Die Übertragung der verschlüsselten Nachricht kann anschließend problemlos über einen herkömmlichen, nicht sicheren Kommunikationsweg erfolgen.
Da die Quantenkryptographie oft als „physikalisch abhörsicher“ bezeichnet wird, weil die Gesetze der Quantenphysik es verbieten, muss an dieser Stelle ganz klar auf den großen praktischen Nachteil hingewiesen werden.
Abhörsicher heißt hier nämlich nicht, dass abhören unmöglich wäre. Es ist lediglich sichergestellt, dass ein Lauscher zuverlässig erkannt werden kann. Ein Dauerlauscher, der einen Kommunikationskanal besetzt hat, macht diesen demnach unbrauchbar.

Die Quantenkryptographie nutzt eine fundamentale Quanteneigenschaft, die Unschärfe. Wenn eine Messung an einem Quantensystem durchgeführt wurde, dann verschwindet in diesem Moment jegliche Unsicherheit bezüglich des Zustandes, da die Messung ein eindeutiges Ergebnis liefert. Das bedeutet gleichzeitig aber auch, dass durch die Messung Information verloren geht, die nachher nicht mehr rekonstruiert werden kann.
Ein Angreifer, der die Leitung belauscht, kann den Zustand der Quanten nur messen, und dann versuchen, sie möglichst unverfälscht weiter zu senden. Da er aber aufgrund der Unschärfe, den empfangenen Zustand nur mit einer begrenzten Wahrscheinlichkeit richtig messen kann, passieren ihm bei Weitersenden Fehler, die der Empfänger erkennen kann.

Konkret wird heute in der Quantenoptik die Polarisation von einzelnen Photonen ausgenutzt, um eine Unschärfesituation herzustellen. Ein Photon, dass mit der Polarisation 45° gesendet wurde, kann mit jeweils 50%iger Wahrscheinlichkeit in 0° oder 90° gemessen werden.
Für die Übertragung wählt man zwei solcher möglichen Polarisationen. Wenn dem Empfänger später noch mitgeteilt wird, in welcher Polarisation jeweils gesendet wurde, kann er über eine Abschätzung der Fehler bestimmen, ob der Kanal abgehört wurde, was im Fall von mehr als 50% Fehlmessungen der Fall ist.

2.7.    Makroskopische Quanteneffekte

Bisher wurden quantenphysikalische Prinzipien immer nur im mikroskopischen Bereich betrachtet. Dort, wo es bedingt durch die Unschärfe bei der Messung auch nahe liegt, ist derzeit das Betätigungsfeld der Quantenphysiker.
Aber auch in unserer makroskopischen Welt spielt Zufall und Chaos eine nicht unbedeutende Rolle. So basiert z.B. die gesamte Thermodynamik nur auf statistischen Aussagen über die chaotischen Bewegungen der Teilchen. Für den makroskopischen Beobachter äußert sich die Summe all dieser Bewegungen als ein Rauschen. Es erscheint daher nur logisch, die Prinzipien der Quantenphysik auch im Makrokosmos zu suchen.
Es muss nur ein Zugang zur Quantenwelt gefunden werden, der ihren zufälligen Abläufen gerecht wird. So wie für einen Quantencomputer die einfachste Aufgabe die Erzeugung von Zufallszahlen ist, kann man Schlussfolgern, dass es über physikalische Zufallsgeneratoren einen Zugang zur Quantenwelt gibt.
Unter dieser Betrachtung wäre es durchaus denkbar, dass Phänomene aus der Quantenwelt wie z.B. die Verschränkung auch bei physikalischen Zufallsgeneratoren zu finden sind.
Darum wollen wir uns im Folgenden mit Rauschgeneratoren als ein mögliches Tor zur Quantenwelt beschäftigen.

3.    Rauschgeneratoren

Rauschgeneratoren, oder in speziellen Anwendungen auch als Zufallsgeneratoren bezeichnet, haben die Aufgabe einen möglichst chaotischen und unvorhersagbaren Zustand zu erzeugen.
Im Englischen werden Rauschgeneratoren oft auch als Entropiegeneratoren bezeichnet. Was der vorigen Definition in sehr guter Weise gerecht wird, denn aus der Thermodynamik kennen wir den Begriff der Entropie als das Maß für die Unordnung in einem System. Letztendlich tun Rauschgeneratoren genau das, sie erzeugen die maximal mögliche Unordnung innerhalb eines Systems.

3.1.    Physikalische Rauschquellen

Rauschen begegnet uns nicht nur in der Thermodynamik, sondern in so gut wie allen Bereichen der Technik. Am bekanntesten ist es wohl aus der Audiotechnik, da es dort direkt hörbar wird.
Aber z.B. auch in der digitalen Photographie macht sich das so genannte Farbrauschen des CCD-Chips vor allem bei lichtschwachen Aufnahmen störend bemerkbar.
Bei diskret aufgebauten Rauschgeneratoren geht es darum, solche normalerweise unerwünschten Rauscheffekte so weit zu verstärken, dass sie zum eigentlichen Nutzsignal werden. Als Quelle des Rauschens kommen daher die verschiedensten Bauteile in Frage.
Widerstände, Z-Dioden und Transistoren sind bekannte Bauteile aus der Elektronik, die sich als Rauschquellen benutzen lassen. Aber auch der Strom durch eine Gasentladungslampe, oder der Dunkelstrom einer Photodiode oder eines Photovervielfachers kann als Rauschquelle benutzt werden.

Im quantenphysikalischen Bereich kann Rauschen aus der Polarisation von Photonen, sowie aus dem Reflexionsverhalten von Photonen an einem halbdurchlässigen Spiegel abgleitet werden.
Auch der radioaktive Zerfall, der ebenfalls auf Quantenphysik beruht, kann als Quelle von echtem Zufall dienen. Diese Prinzipien liefern allerdings immer diskrete Einzelereignisse und haben eine etwas andere Struktur als ein analoges Rauschsignal.

3.2.    Analoges Rauschen

Jeder kennt das störende Rauschen eines Verstärkers oder eines Wiedergabegerätes in der Audiotechnik, wenn man die Lautstärke zu hoch aufdreht. Diese unerwünschte Störung ist die Grundlage eines analogen Rauschgenerators, der im Wesentlichen wie ein hoch empfindlicher Audioverstärker aufgebaut ist. Bevor wir aber an den Bau eines solchen Generators gehen können ist es einmal wichtig die Anforderungen an ein ideales Rauschen zu definieren.

3.2.1.    Rauschen mit Frequenzbegrenzung

Das ideale Rauschen ist in der analogen Signalverarbeitung  per Definition ein Signal, dass alle möglichen Frequenzen zwischen 0 und Unendlich enthält. Das ist eine Forderung, die in der Praxis nicht zu erfüllen ist, so wird der Frequenzbereich immer im Rahmen des betrachteten Systems eingeschränkt.

In der Audiotechnik benutzt man Rauschsignale z.B. dafür, um die Akustik eines Raums auszumessen. Dafür reicht es völlig aus, sich mit Rauschsignalen zufrieden zu geben, deren höchste Frequenzanteile irgendwo in unteren MHz Bereich enden.

In der Hochfrequenztechnik wird Rauschen z.B. dazu benutzt, um den Frequenzgang und die Empfangseigenschaften von Satelliten LNCs (Low Noise Converter) auszumessen. Dazu sind Rauschsignale nötig, deren Frequenzen im GHz Bereich liegen. Auf tiefere Frequenzen, wie etwa den Audiobereich kann man hierbei ohne Probleme verzichten.

In der Praxis sind einige Definitionen für den Frequenzgang des Rauschens üblich. Man hält sich dabei im Wesentlichen an die aus der Farbenlehre bekannte Farbtemperatur. Rot steht dabei für eine große Wellenlänge, also eine tiefe Frequenz, blau steht für kurze Wellenlängen, also hohe Frequenz. Licht das alle sichtbaren Wellenlängen enthält erscheint uns weiß.

Demnach ist das weiße Rauschen im Rahmen des betrachteten Systems ein ideales Rauschen, das alle möglichen Frequenzen mit gleichen Anteilen enthält. Häufig ist es der Fall, dass die hohen Frequenzen weniger stark ausgeprägt sind. Das bedeutet im Falle des Lichtes, dass die blauen Anteile zurückgehen, wodurch das Licht eine rötliche Färbung erhält. Ein nach oben hin Frequenzbegrenztes weißes Rauschen wird daher als rosa Rauschen bezeichnet. Der weit aus seltenere Fall, dass die tiefen Frequenzen abgeschwächt sind, wird dann als blaues Rauschen bezeichnet.

3.2.2.    Aufbau eines analogen Rauschgenerators

Im einfachsten Fall benutzt man eine Z-Diode als Rauschquelle. Diese wird in Sperrrichtung mit so großer Spannung beaufschlagt, dass es zum Zener-Durchbruch kommt. Der dann durch die Diode fließende Strom weißt ein relativ starkes Rauschen auf. Dieses wird als Spannung abgegriffen und anschließend über zwei Transistorstufen so weit verstärkt, bis es einen nutzbaren Pegel aufweist.

Dieser Rauschgenerator wurde speziell für Anwendungen in der HF-Technik entwickelt. Aus diesem Grund sind hochfrequenztaugliche Transistoren verwendet. Seine höchsten Frequenzanteile reichen dementsprechend weit über 100MHz.

Die Z-Diode liefert zwar eine relativ große Rauschspannung, doch die statistische Qualität dieses Signals entspricht nicht immer der geforderten gaußförmigen Verteilung. Das Signal kann bei einigen Typen eine asymmetrische Häufigkeitsverteilung oder sprungartig auftretende Überschwinger, den so genannte „Popcorn Noise“, enthalten. Aus diesen Gründen empfiehlt es sich für die statistische Auswertung eine Rauschquelle höhere Qualität zu benutzen.

Dazu bietet sich eine übliche Transistor Verstärkerstufe an, die zwar nur ein relativ geringes, aber dafür sauberes Eigenrauschen besitzt. Wenn der Arbeitspunkt einer solchen Stufe richtig eingestellt ist, dann ist auch das erzeugte Rauschen symmetrisch ausgesteuert.
In der Schaltung bietet sich dann das etwas seltsame Bild von einer Verstärkerstufe, an deren Eingang nichts angeschlossen ist.
Da Rauschen eine sehr hohe Dynamik besitzt, ist für die letzte Verstärkerstufe eine separate Arbeitspunkteinstellung vorgesehen. Damit wird das Signal auf eine symmetrische Aussteuerung abgeglichen. Damit es zu keinen unerwünschten Schwingungen kommt, ist die Betriebsspannung für jede Verstärkerstufe extra entkoppelt.

3.3.    Digitalisiertes Rauschen

Der Begriff des digitalisierten Rauschens darf nicht mit dem des digitalen Pseudogenerators verwechselt werden, was unter Punkt 3.4 noch behandelt wird.
Ein digitaler Rauschgenerator erzeugt aus einer physikalischen Rauschquelle ein digitalisiertes Rauschsignal. Er ist somit zu den „echten“ Rauschgeneratoren zu zählen. Die Funktion kann man am einfachsten durch einen AD-Wandler beschreiben, der einem analogen Rauschgenerator nachgeschaltet ist. Meist wird in der Digitaltechnik aber nicht ein genaues Abbild der analogen Rauschspannung benötigt, sondern nur ein Bitstrom mit möglichst idealen, statistischen Eigenschaften. Das führt zu einigen Vereinfachungen bei der Digitalisierung, stellt aber gleichzeitig auch spezielle Anforderungen.

3.3.1.    Zufällige Bitströme

Dazu ist es wichtig, zunächst einmal die Anforderungen an einen zufälligen Bitstrom zu definieren. Ein Bitstrom kann als eine Abfolge von einzelnen Ja/Nein Entscheidungen angesehen werden. Im Falle eines Zufallsgenerators drängt sich der Vergleich mit dem Wurf einer Münze auf.

Dazu ein interessantes kleines Experiment, das jeder leicht selber durchführen kann:
Notieren sie 50 Ja/Nein Entscheidungen, die ihrer Meinung nach völlig zufällig sind, in Form eines Bitstroms auf einem Blatt Papier.
Das könnte z.B. so aussehen: 10110101101101011010110010011010100110100010100101
Nehmen sie dann eine Münze zur Hand und werfen sie sie 50 mal. Notieren sie für Kopf eine Null und für Zahl eine Eins.
Das ergibt dann z.B. folgenden Bitstrom: 00111110001010011101011110001101001000010110111000

Es fällt zunächst auf, dass diese beiden Folgen trotz ihrer scheinbaren Zufälligkeit doch leicht voneinander zu unterscheiden sind. Auch wenn man vorher noch die erste Folge für ideal zufällig angesehen hat wird man jetzt wohl seine Meinung ändern und die zweite bevorzugen.
Beim echten Zufall sind mitunter sehr lange Folgen des gleichen Bits enthalten. Bei der ausgedachten Folge werden die meisten wohl in der Absicht einen möglichst perfekten Zufall zu erzeugen viel zu oft einen Wechsel von 0 auf 1  bzw. 1 auf 0 aufschreiben, als es eigentlich nötig wäre. Diese Perioden zwischen zwei Bitwechsel, also ein Pakete gleicher, aufeinander folgender Bits, nennt man auch einen Run.

Analysieren wir die beiden Bitströme zunächst einmal ganz grundsätzlich nach der Anzahl der 1er und 0er. Denn das ist das Offensichtlichste, was wohl jeder erwarten würde und vielleicht auch schon beim Niederschreiben der Bitfolge berücksichtigt hat. Im Mittel müssen 50% 1er und 50% 0er enthalten sein. Anderenfalls wäre der Bitstrom nicht mehr 100%ig zufällig, denn man könnte dann mit einer Wahrscheinlichkeit von mehr als 50% das nächste Bit vorhersagen.
Die ausgedachte Folge enthält  26 1er und 24 0er.
Die geworfene Folge enthält  25 1er und 25 0er.
Hierbei sind keine großen Unterschiede festzustellen und die Werte entsprechen den Erwartungen. Bei 50 Würfen sollte 25 mal eine 1 und 25 mal eine Null herauskommen. Der Idealwert ist natürlich nur ein statistisches Mittelmaß, der erst bei sehr vielen Würfen erfüllt ist. 50 Würfe sind dazu sicher nicht ausreichend, aber hier soll nur das Prinzip demonstriert werden.

Analysieren wir jetzt die Runs, indem wir ihre Anzahl ermitteln. Dazu beginnen wir links und zählen bei jedem Übergang von 0 auf 1 und von 1 auf 0 um einen Schritt weiter.
Für die ausgedachte Folge erhalten wir 35 Runs
Für die geworfene Folge erhalten wir 24 Runs
Hier wird der Unterschied sichtbar. Bei einem idealen Zufall muss die Anzahl der Runs im Mittel 50% sein. Wir erwarten bei 50 Würfen demnach 25 Runs. Bei der niedergeschriebenen Folge wurde dieser Wert weit überschritten.

Diese beiden Kriterien sind auch schon die wichtigsten Anforderungen an einen zufälligen Bitstrom. Sie haben ihren Ursprung in der Analogtechnik. Die Anzahl der 0er und 1er entspricht dem Gleichspannungsoffset und die Anzahl der Runs entspricht dem Frequenzgang. Den Frequenzgang kann man sich im Falle des Münzwurfes so vorstellen, dass er nur dann richtig, ist, wen man nach jedem Wurf auch nur ein Ergebnis notiert. Würde man z.B. jedes Wurfergebnis zweimal hintereinander niederschreiben, so wären die Runlängen viel zu groß.

3.3.2.    Symmetrierung von Bitströmen

In der Praxis ist es meist so, dass die Erzeugung der Ja/Nein Entscheidung nicht zu 100% symmetrisch aufgebaut werden kann. Es kommt daher immer zu einem geringen Offset und somit zu einer asymmetrischen Verschiebung des Verhältnisses von den 1ern zu den 0ern.
Für die meisten Anwendungen ist das unerwünscht und so wurden Verfahren entwickelt, um den Offset aus einem Zufallsbitstrom herauszurechnen, man spricht dabei von Symmetrierung.

Die einfachste Art der Symmetrierung erreicht man durch das Invertieren von jedem 2. Bit, indem man eine Folge von 01010101... mit dem ursprünglichen Bitstrom XOR-Verknüpft.
Dadurch ist das Verhältnis von den 0ern zu den 1ern in jedem Fall ausgeglichen, selbst wenn als Eingangsdaten nur lauter 0er vorlagen. In diesem Fall zeigt sich aber auch schon die Schwäche dieses Verfahrens. Es produziert viel zu kurze Runlängen, sobald eine Unsymmetrie vorliegt.

Es gibt bessere Verfahren, welche diese Probleme zum Teil beheben können. Generell gilt dabei aber, je größer die Unsymmetrie am Anfang war, desto weniger Ausgangsdaten können erzeugt werden, weil letztlich aus einem Eingangsstrom ohne jegliche Änderung überhaupt kein Zufallsereignis abgeleitet werden kann.

Eines dieser Verfahren ist das von John von Neumann vorgeschlagene Symmetrierungsverfahren. Dabei wird der originale Bitstrom in Gruppen von jeweils 2 Bits eingeteilt und dann eine Zuordnung der verschiedenen Bitmuster zu je einem Ausgangszustand getroffen. Jene Bitmuster wie 00 und 11, die keine Änderung enthalten, werden verworfen und aus den übrigen wird jeweils ein Ausgangsbit abgeleitet, also z.B. 01 wird zu 0 und 10 wird zu 1.

3.3.3.    Konvertierung von Bitströmen

In einem derartigen Bitstrom kann zwar ebenfalls eine physikalische Rauschquelle abgebildet werden, er weist aber dennoch eine ganz andere Struktur auf, als es bei den analogen Rauschgeneratoren unter Punkt 3.2 der Fall war. Bei reinen analogen Quellen erwartet man immer eine gaußförmige Häufigkeitsverteilung der Amplitudenwerte, was hier nicht der Fall ist. Da jedes Bit hier einen Amplitudenwert repräsentiert und gleich häufig vorkommt, spricht man von einer flachen Häufigkeitsverteilung. Um eine solche in eine gaußförmige Verteilung umzuwandeln ist es notwenig, einen größeren Zeitabschnitt zu betrachten und darin z.B. die Anzahl der vorkommenden 1er zu zählen. Dieser Wert schwankt um den erwarteten Mittelwert und weist wiederum eine gaußförmige Verteilung auf. Über die Länge des Betrachtungszeitraumes kann die Streuungsbreite der Gaußverteilung variiert werden. In jedem Fall muss aber auch bei dieser Umwandlung eine erhebliche Reduzierung der Datenmenge in Kauf genommen werden.

3.3.4.    Aufbau eines digitalen Rauschgenerators

Für eine 1Bit Entscheidung reicht es aus, das analoge Signal einem Komparator zuzuführen und bei einer positiven Spannung eine 1 zu generieren und bei einer negativen Spannungen eine Null. Damit das auch zu der geforderten Gleichverteilung von 0er und 1er führt ist es wichtig, dass die Referenzspannung des Komparators genau dem arithmetischen Mittelwert des Rauschsignals entspricht, oder anders ausgedrückt, das analoge Rauschsignal darf keinen DC-Offset aufweisen.
Im einfachsten Fall lässt sich der Mittelwert aus dem Rauschsignal selbst bilden, indem man einfach einen Tiefpass mit hinreichend großer Zeitkonstante benutzt. Damit ist schon einmal sichergestellt, dass der DC-Offset des Rauschgenerators ausgeglichen ist. Dennoch ist zu beachten, dass diese einfache Methode auch einen Teil der sehr tiefen Frequenzen unterdrückt, da der Tiefpass keine unendlich große Zeitkonstante aufweisen kann.
Am Ausgang des Komparators erhalten wir so immer noch eine analoges Signal, dass aber nur mehr die beiden Amplitudenwerte logisch Null und logisch Eins aufweist.
Im nächsten Schritt kommt es zur eigentlichen Digitalisierung. Dazu wird im Takt einer meist konstanten Abtastrate, immer ein Augenblickswert des analogen Signals gespeichert. Wenn wie hier die Amplitude des Analogsignals nur mehr zwei Werte annehmen kann, reicht es aus, ein mit der Abtastrate getriggertes D-Flip-Flip zu verwenden.

Für einen sehr einfachen, praktischen Aufbau eines solchen Rauschgenerators kann die Serielle Schnittstelle RS232 eines PCs zur Digitalisierung herangezogen werden.
Als Rauschquelle dient die Basis-Emitter Diode eines Transistors, welche in Sperrrichtung gepolt ist und bei ihrem Durchbruch eine sehr hohe Rauschspannung erzeugt. Diese wird durch eine einfache Transistorstufe verstärkt und anschließend einem OPV zugeführt der als Komparator geschaltet ist. Die Referenzspannung für den Vergleich wird durch Tiefpassfilterung auf dem Mittelwert der Rauschspannung gehalten. Dadurch ist ein relativ ausgeglichenes Verhältnis von 1er zu 0er gewährleistet. Geringe Unsymmetrien werden durch den einstellbaren Offsetausgleich des OPVs ausgeglichen.
Das so aufbereitete Signal hat nun noch immer einen analogen Charakter, obwohl die Amplitude bereits begrenzt ist. Erst in der RS232 Schnittstelle wird die eigentliche Digitalisierung vorgenommen, nach der das Signal zu einem Bitstrom mit flacher Häufigkeitsverteilung wird.

Beim Betrieb dieses Rauschgenerators ist zu beachten, dass er keine konstante Bitrate erzeugt. Das normalerweise für die RS232 vorgeschriebene Timing mit Start- und Stopbit wird nicht eingehalten und so liegt die effektive Datenrate immer unterhalb der eingestellten Baudrate.

3.3.5.    Quanten-Rauschgenerator

Die meisten analogen Rauschquellen, vor allem im elektrotechnischen Bereich nutzen die Fluktuationen einer Größe aufgrund der thermischen Unruhe (thermisches Rauschen) der Materie. Das so erzeugte Rauschen ist daher zum größten Teil thermischen Ursprungs.

Die Quantenphysik bietet die einmalige Möglichkeit, Rauschen auf einer komplett anderen Grundlage zu erzeugen, die nicht an thermische Erscheinungen gekoppelt ist. Die quantenmechanische Entscheidung, die ein Photon treffen muss, wenn es z.B. auf einen halbdurchlässigen Spiegel trifft, erzeugt ebenfalls ein Rauschen, dass auf Grund der Ja/Nein Entscheidung am besten digital weiterverarbeitet werden kann.

Die Schweizer Firma idQuantique, die vor allem im quantenoptischen Bereich tätig ist, hat als erste einen derartigen Rauschgenerator auf den Markt gebracht. Die Schlüsseltechnologie dafür sind Einphotonenquellen und Einphotonendetektoren.

Ausgehend von einem quarzgesteuerten Taktgenerator werden mit Hilfe einer Laserdiode, die als Einphotonenquelle arbeitet einzelne, extrem kurze Lichtimpulse erzeugt, die im Mittel nur noch aus einigen wenigen Photonen bestehen. Diese Lichtimpulse werden dann auf einen halbdurchlässigen Spiegel gerichtet. Dieser hat die Eigenschaft, einen einfallenden Lichtstrom in zwei, nur noch halb so starke Teilströme aufzuteilen. Im Normalfall, bei der Betrachtung von sehr vielen, gleichzeitig einfallenden Photonen folgt der statistische Mittelwert der 50% Aufteilung. Wohin ein einzelnes Photonen abgelenkt wird, unterliegt dem quantenphysikalischen Zufall.
Beim Übergang in die Quantenwelt werden nun immer weniger Photonen pro Zeiteinheit auf den Spiegel gerichtet, sodass der Zufallcharakter messbar wird. Die einzelnen kurzen Lichtblitze werden jetzt nicht mehr auf zwei Teile aufgeteilt, sondern das Licht kommt einmal vollständig durch den Spiegel durch, und im anderen Fall wird es vollständig reflektiert. Im Mittel gilt nach wie vor die 50% Aufteilung, nur erfolgt sie jetzt in diskreten Zeiteinheiten hintereinander und ist für jeden einzelnen Lichtblitz nachvollziehbar.

Bei der nachfolgenden Aufwertung durch die Einphotonendetektoren wird eine Zuordnung der Zustände, wie z.B. hier Photon geht durch den Spiegel = logisch Null und Photon wird reflektiert = logisch Eins getroffen. In der Nachbearbeitung werden anschließend noch die undefinierten Zustände herausgefiltert. Denn es kann natürlich vorkommen, dass die Photonen eines Lichtblitzes alle im Spiegel absorbiert werden und so an keinem Detektor etwas ankommt, woraus kein Zufallsereignis abgeleitet werden kann. Ebenso ist es möglich, dass trotz der geringen Photonenanzahl einige den Spiegel passieren und die anderen abgelenkt werden. In diesem Fall messen beide Detektoren einen Impuls, was auch zu keinem Zufallsereignis verwertet werden kann. Diese undefinierten Zustände werden mit einer einfachen Logik erkannt und unterdrückt. Das exklusive ODER ermittelt, ob an beiden Detektoren gleichzeitig etwas gemessen wurde und sperrt in diesem Fall die Weiterleitung der Impulse mit Hilfe der beiden NANDs. In den anderen Fällen gelangt der jeweilige Impuls zu einem RS-Flip-Flop, welches dann seinen Zustand entsprechend auf Null oder Eins ändert. In Zusammenhang mit dem Taktsignal, das vom XOR gewonnen wurde, ergeben sich so die zufälligen Ausgangsdaten. Immer wenn ein Taktimpuls ansteht, sind die Daten zu diesem Zeitpunkt gültig.

Um einen einwandfreien, zufälligen Bitstrom zu erzeugen, muss zuletzt auch noch die Unsymmetrie des Spiegels korrigiert werden. Wie bei fast allen physikalischen Prozessen, ist es auch beim Spiegel nicht möglich, diesen so korrekt herzustellen, dass er das Licht wirklich genau im Verhältnis 1:1 teilt. So kann es vorkommen, dass der Bitstrom im Mittel z.B. mehr 1er als 0er enthält. Um diese Unsymmetrie im Datenstrom auszugleichen wird das einfachste aller Symmetrierungsverfahren benutzt. Es wird jedes zweite Bit in seinem Zustand invertiert, was physikalisch bedeutet, dass die Zuordnung der Zustände Photon geht durch den Spiegel gleich logisch Eins nach jedem geschossenen Photon umgekehrt wird.

Im Gegensatz zu analogen Rauschquellen tritt bei den Quanteneffekten kein Frequenzgangproblem auf. Da die Abtastung genau mit der gleichen Frequenz erfolgt, mit der auch die Photonen erzeugt werden liegt immer ein komplett ausgeglichener Frequenzgang innerhalb der Abtastbandbreite vor. In Verbindung mit der weitgehenden Unempfindlichkeit gegenüber thermischen und elektromagnetischen Einflüssen macht es diese Zufallsgeneratoren ideal für Forschungen im Bereich des Quantenchaos.
Das Quantis Modul liefert einen zufälligen Bitstrom mit einer Datenrate von 4MBit/s. Für eine Aufzeichnung über mehrere Tage ist diese Datenmenge natürlich viel zu groß. Um den Bitstrom langsamer abtasten zu können, und gleichzeitig eine Verbindung zu einem PC herzustellen, wurde diese Schaltung entwickelt. Sie koppelt das Quantis mit einer einstellbaren Baudrate an die serielle Schnittstelle RS232.

IC1 und IC2A bilden den Baudratengenerator, bei dem im Hinblick auf Langzeitaufzeichnungen vor allem auch niedrige Baudraten einstellbar sind. Der Dezimalzähler IC4 sorgt für das richtige Timing Protokoll der RS232 mit Start- und Stopbit, die über IC7A und IC7B in den Bitstrom eingeblendet werden.
An der fallenden Flanke des Baudtaktes wird das D-Flip-Flop IC3A freigegeben und mit der nächsten steigenden Flanke des Quantis Takts getriggert. In diesem Fall übernimmt das D-Flip-Flop IC3B die aktuell anstehenden Daten vom Quantis.

IC6A und IC8 bilden eine hardwaremäßige Auswerteschaltung, gemäß der Prinzipschaltung, für die Impulse der Photonendetektoren. Die Impulse der Photonendetektoren werden an den beiden undokumentierten Pins 16 und 17 des Quantis Moduls abgegriffen. Durch Umstellen von JP1 und JP7 kann von dem originalen Datenausgang auf die hardwaremäßige Auswertung umgeschaltet werden. Das ist deshalb vorgesehen, um die bereits im Modul vorgenommene Symmetrierung der Daten umgehen zu können. Das ist vorgesehen, weil die Nachbearbeitung des Bitstromes während der Symmetrierung den nachzuweisenden externen Einfluss auf die Zufallsereignisse unnötig verschleiern könnte.

Zur Aufzeichnung der Daten über die RS232 Schnittstelle eines PCs wurde ein handelsübliches Terminalprogramm benutzt. Dabei muss man darauf achten, dass die Daten wirklich transparent und ohne Veränderung aufgezeichnet werden. Viele Terminalprogramme ergänzen die Steuerzeichen CR (#0D) mit LF (#0A) bzw. umgekehrt. Wenn so ein Programm benutzt wird, müssen die ergänzten Zeichen vor der weiteren Verarbeitung entfernt werden. Es empfiehlt sich die Verwendung von hardwarenahen Programmen, wie etwa RealTerm.

3.3.6.    Radioaktiver Zerfall als Zufallsquelle

Wie zu Beginn bereits erwähnt wurde, basiert der radioaktive Zerfall ebenfalls auf einem quantenphysikalischen Prinzip. Ein instabiler Atomkern weist immer einen Überschuss an Neutronen im Vergleich zu seinen stabilen Isotopen auf. Die Neutronen werden durch die Kernbindungskräfte zusammen mit den Protonen im Atomkern gehalten, was eine gewisse Energiebarriere darstellt, die überwunden werden muss, wenn ein Teilchen den Kern verlassen will. Für die Teilchen im Kern besteht somit keine direkte Möglichkeit ohne Energiezufuhr den Kern zu verlassen. Erst unter der Betrachtung der Wellenfunktion der Teilchen kann durch den Tunneleffekt ein Erklärungsmodell gefunden werden, dass dies zulässt.
Es ist mit einer begrenzten Wahrscheinlichkeit möglich, dass ein Teilchen die Energiebarriere des Kerns durchtunneln kann. Je nach dem, wie hoch das zu durchtunnelnde Energieniveau ist, ist es wahrscheinlicher oder unwahrscheinlicher dass ein Kern innerhalb einer gewissen Zeit zerfällt. Daraus folgt dann direkt die Halbwertszeit eines radioaktiven Isotops. Die Halbwertszeit ist wiederum eine statistische Größe, die sich auf eine Vielzahl von Atomkernen bezieht. Das Einzelereignis eines Zerfalls kann nicht vorhergesagt werden und ist eine sehr gute Quelle physikalischen Zufalls.

Dieses Prinzip lässt sich zur Erzeugung von Zufallszahlen benutzen, indem man die Zerfälle einer radioaktiven Probe in konstanten Zeitabschnitten misst. Dazu benötigt man einen sehr schnellen Detektor, um möglichst viele einzelne Zerfälle erfassen zu können. Die üblichen gasgefüllten Geigerzählrohre sind dazu nicht sehr gut geeignet, weil sie meist eine Erholungszeit nach einer Detektion benötigen. Hier bieten sich Halbleiterdetektoren an, die sehr hohe Detektionsraten zulassen. Im einfachsten Fall kann eine Photodiode als Detektor eingesetzt werden. Durch die Energie er auftreffenden Teilchen werden Elektronen herausgeschlagen, was dann schwacher Stromimpuls registriert werden kann.

Als radioaktive Quelle eignen sich besonders Alpha-Strahler, weil die Alpha-Teilchen, welche bekanntlich Helium Kerne sind, eine sehr große Masse besitzen und somit auch sehr viel kinetische Energie übertragen, was wiederum einen großen Stromimpuls in der Photodiode erzeugt, der leicht detektiert werden kann.

Für diesen Aufbau wurde eine Am241 Probe mit 2µci (1 Curie = 3,7*10^10 Zerfälle pro Sekunde) aus einem Ionisationsrauchmelder verwendet.
Der Nachteil von Alpha-Teilchen ist, dass sie feste Materie nur sehr schlecht durchdringen können. Mit der Alpha Energie von Am241 von 5,6MeV ist es kaum möglich, die Glaslinse der Photodiode zu durchdringen. Das macht es notwendig, die Diode zu öffnen, sodass der Chip frei liegt. Dann ist es möglich von den 74000 Zerfällen pro Sekunde immerhin 1/10 davon, also etwa 7000 pro Sekunde zu detektieren.
Die schwachen Stromimpulse von der Photodiode werden zunächst verstärkt und anschließend einer Impulsformerschaltung zugeführt, welche Impulse konstanter Länge erzeugt. Damit wird nur ein Zähler bei jedem ankommenden Impuls um 1 erhöht. In konstanten Zeitabschnitten wird der Zählerstand ausgelesen und anschließend auf Null zurückgesetzt.
Die so gewonnenen Zahlenwerte weisen eine gaußförmige Häufigkeitsverteilung um die mittlere Detektionsrate auf.

3.4.    Arithmetische Pseudogeneratoren

Einen wirklich unvorhersagbaren Zustand zu erzeugen ist für heute übliche Computersysteme eine fast unerfüllbare Anforderung. Denn digitale Rechner sind gerade darauf optimiert,  dass so gut wie nie ein undefinierter Zustand eintreten kann. Wenn es doch einmal passiert, dann führt das meist zu den bekannten Systemabstürzen.
Dennoch werden in der Datenverarbeitung sehr oft Zufallszahlen benötigt. Für die meisten Anwendungen, wie z.B. für Simulationen, ist dabei die Unvorhersagbarkeit gar nicht so wichtig. Viel mehr sollen die Zufallszahlen möglichst gute statistische Eigenschaften aufweisen.
Ausgehend von dieser Anforderung ist es in der Digitaltechnik üblich Folgen von Zahlen zu berechnen, die eine gute statistische Gleichverteilung aufweisen. Eine solche Folge kann ausgehend von einem Startwert, im Englischen auch „Seed“ (=Saat) genannt, immer wieder in der gleichen Form berechnet werden. Sie ist also vollständig vorhersagbar, auch wenn die Zahlenverteilung zufälligen Charakter hat.
Aus diesem Grund werden solche Algorithmen auch gerne für Verschlüsselungsaufgaben eingesetzt, wobei der Verschlüsselungscode der Startwert ist.
Aufgrund des völlig deterministischen Verhaltens werden solche arithmetischen Algorithmen auch als Pseudozufallsgeneratoren bezeichnet. Um mit solchen Generatoren doch in gewissen Grenzen einen echten Zufall erzeugen zu können, wird innerhalb eines Computersystems der Startwert möglichst zufällig gewählt. Im einfachsten Fall wird dazu die Systemuhrzeit beim Programmstart benutzt, um einen Startwert zu berechnen. Etwas anspruchsvollere Programme fordern den Benutzer auf einen Würfel zu werfen, oder einfach eine zufällig gewählte Zahl einzugeben.
Trotzdem bleibt eine solche Zahlenfolge letztlich immer vorhersagbar und so ist es für kritische Anwendungsbereiche wie Glücksspiel und Hochsicherheitsverschlüsselung notwendig spezielle Hardware zu benutzen, die eine echte, physikalische Rauschquelle enthält. Intel hatte sogar in einigen älteren Chipsätzen (im Firmware Hub 82802 für die Chipsätze der Serie 800) einen physikalischen Rauschgenerator für Sicherheitsanwendungen integriert. In neueren Chipsätzen ist der allerdings nicht mehr enthalten und so gibt es eine Vielzahl von Hardwareherstellern welche die verschiedensten Zufallsgeneratoren anbieten. Auch gibt es Softwarelösungen, die versuchen geringe Fluktuationen im Timing des Prozessorsystems zur Erzeugung von echten Zufallszahlen zu benutzen.

3.4.1.    Aufbau eines digitalen Pseudogenerators

Als Beispiel für einen arithmetischen Pseudogenerator soll hier das Prinzip der rückgekoppelten Schieberegister angeführt werden.

Zwei 8 Bit Schieberegister sind zu einem 16 Bit Register zusammen geschaltet. An ganz bestimmten Punkten der Schieberegister werden die Ausgangsdaten abgegriffen und über XOR Gatter auf den Eingang rückgekoppelt.
Zu Beginn werden die Schieberegister auf Null gesetzt. Damit es überhaupt zu einem Datenfluss kommt, muss der Ausgang der XOR-Gatter invertiert werden, sodass zu Beginn einmal zwei 1er eingeschoben werden. Erst wenn der erste 1er rückgekoppelt wird, entsteht im nächsten Schritt eine 0 am Eingang des Schieberegisters und der Datenstrom beginnt zu fluktuieren.

Über die Wahl der Rückkopplungspunkte wird die Qualität der Zufallszahlen ganz entscheidend beeinflusst. Bei dem vorliegenden Fall mit 16 Bit beträgt die längste mögliche Periode 65535 Taktschritte. Danach wiederholt sich die Datensequenz in genau gleicher Weise immer wieder.
Deshalb ist der Anschluss des höchstwertigen Bits 16 an die Rückkopplung obligatorisch. Für die anderen Rückkopplungen gibt es aber durchaus auch Einstellungen, bei denen eine kürzere als die maximal mögliche Periode auftritt.
Mathematisch beschreibt man so ein rückgekoppeltes Schieberegister durch ein Polynom, in diesem Fall 1+x^2+x^3+x^5+x^16.

Das Verhalten eines Pseudogenerators wird im Frequenzspektrum sehr schön sichtbar. Da sich das erzeugte Signal nach spätestens 65536 Zuständen wiederholt, also periodisch wird, entstehen einzelne diskrete Spektrallinien die sich bei einer Taktfrequenz von 10MHz in einem Abstand von 152,6 Hz befinden. Wenn man entsprechend in das Spektrum hineinzoomt, so werden diese diskreten Linien sichtbar. Das ist eine Eigenschaft, die ein echtes Rauschen nicht zeigt.

Dieses Bild zeigt den Ausschnitt aus dem 5MHz Punkt mit einem Span von 100Hz/Div und einer Auflösungsbandbreite von 30Hz. Gut zu erkennen ist der Abstand von etwas über 150Hz zwischen den einzelnen Linien.

Interessant ist, dass der Abstand der Spektrallinien zwar von der Taktfrequenz abhängig ist, aber die Anteile der einzelnen Frequenzen allein durch die Struktur der Rückkopplung bestimmt werden.

Diese beiden Spektren zeigen einmal für 10MHz und einmal für 12MHz Taktfrequenz jeweils den 5MHz bzw. 6MHz Punkt, die Rückkopplung vom letzten Schieberegister wurde auf  2^12 herabgesetzt.
Interessant dabei ist, dass die Struktur, also die Hüllenkurve über die Amplituden der Spektrallinien immer gleich bleibt, egal welche Taktfrequenz verwendet wird. Sie stellt sozusagen einen charakteristischen Fingerabdruck dar.
Mit sinkender Taktfrequenz rücken die einzelnen Spektrallinien näher zusammen, werden also dem echten Rauschen immer ähnlicher. Daraus kann man interpolieren, dass bei 0Hz Taktfrequenz das Pseudorauschen in ein echtes übergehen würde. Praktisch ist das natürlich ein unsinniger Zustand, da dann die Schieberegister still stehen und überhaupt keine Ausgangsdaten mehr erzeugt werden.

Unter dieser Betrachtung lässt sich aber ein interessanter Schluss bezüglich des echten, analogen Rauschens ziehen. Wenn im echten Rauschen die Spektrallinien unendlich dicht beieinander sitzen, so kann das nur bedeuten, dass im echten Rauschen ein zeitloses Element vorhanden ist, oder anders ausgedrückt, dass es keine zeitliche Struktur besitzt.
Dennoch könnte unabhängig davon eine Struktur in der Amplitudenverteilung existieren, wie später bei der Analyse nach Shnoll unter Punkt 4.4.2 noch gezeigt wird.

3.5.    Mikrowellenbillard

Das Mikrowellenbillard ist kein Rauschgenerator im eigentlichen Sinn. Es dient dazu, unter Laborbedingungen einen stationären, aber dennoch chaotischen Zustand herzustellen. Es ist deshalb sehr gut für Forschungen an chaotischen Systemen geeignet.

Das Mikrowellenbillard ist, ein Hohlraumresonator für Mikrowellen, in dem durch gezielte Formgebung sowohl ein deterministisches, als auch ein chaotisches Reflexionsverhalten eingestellt werden kann.
Im praktischen Aufbau besteht es aus Kupferblech, welches einen rechteckigen Hohlraum umschließt. Die geringe Höhe des Resonators von 10mm ist wichtig, damit ist gewährleistet, dass bis zu einer Frequenz von 15GHz, entsprechend der halben Wellenlänge, nur eine eindimensionale Wellenausbreitung stattfindet. Nur in diesem Fall gleicht das Reflexionsverhalten der elektromagnetischen Wellen dem eines mechanischen Billardspiels mit Kugeln.
An der Oberseite befinden sich zwei Koaxialanschlüsse zur Ein- und Auskopplung der HF-Energie. Zur Veränderung der Resonanzbedingungen ist eine Wand beweglich ausgeführt.
Für den deterministischen Fall wird ein rechteckiger Resonatorraum benutzt, für den chaotischen Fall wird eine Wand gebogen ausgeführt.

Bei einer Reflexion an einer geraden Wand bleiben parallele Bahnen parallel, es entsteht keine zusätzliche Unordnung im System. An einer gekrümmten Wand hingegen nehmen die Abstände zwischen parallelen Bahnen exponentiell zu, sodass sie nach kurzer Zeit ein chaotisches Verhalten besitzen. Dieses Verhalten gilt prinzipiell nur für ein mechanisches Billardspiel. Im elektromagnetischen Fall kann durch die Wahl von einem fixen Ein- und Auskoppelpunkt der Bahnverlauf nicht direkt gemessen werden. Erst über die Änderung der Frequenz werden die Bahnen so verschoben, dass sie am Auskoppelpunkt ankommen oder eben nicht.

Die Messung an dem Mikrowellenbillard erfolgt deshalb mit einem Wobbelmessplatz. Dargestellt wird die Durchgangsdämpfung durch den Resonator in Abhängigkeit von der Frequenz.
Dazu wird von einem YIG-Oszillator (Yttrium-Eisen-Granat ist ein Ferritwerkstoff, der unter dem Einfluss eines Magnetfeldes seine elektrischen Eigenschaften ändert und so eine elektrische Abstimmung des Oszillators ermöglicht) Hochfrequenz zwischen 4 und 20 GHz in den Resonator eingespeist und am Ausgang die auftretende HF mit einem Spektrumanalyzer gemessen.
Interessant für die Auswertung ist jeweils nur die Lage der einzelnen Resonanzpunkte auf der Frequenzachse. Die Amplitude und Breite der Resonanzpunkte ist dabei nicht interessant, da sie vor allem von dem Leitwert des Resonatormaterials abhängt. Für eine bessere Darstellung der Resonanzpunkt verwendet man daher Materialien mit einer hohen Leitfähigkeit, bis hin zu Supraleiter. Dadurch werden die einzelnen Resonanzpunkte viel schärfer und es können mehr solcher Punkte gefunden werden.

Für die Auswertung werden nur die relativen Abstände zwischen benachbarten Resonanzpunkten herangezogen. Die Häufigkeit dieser Abstände wird in Abhängigkeit von der Größe des Abstandes in einem Histogramm dargestellt.
Dabei zeigt sich ein Verhalten, dass direkt aus dem Reflexionsverhalten folgt. Im deterministischen Fall ist es sehr häufig der Fall, dass bereits nach einer kleinen Änderung der Frequenz der nächste Resonanzpunkt auftritt, weil entsprechend der mechanischen Betrachtung die Bahnen parallel verlaufen und so nur eine kleine Verschiebung notwendig ist, um auf die nächste Bahn zu gelangen.
Im chaotischen Fall hingegen sind die Resonanzpunkte viel weiter voneinander entfernt. Es ist eine größere Verschiebung notwendig, um auf die nächste, weit entfernt liegende Bahn zu gelangen.

In den Histogrammen äußert sich dieses Verhalten in zwei charakteristischen Häufigkeitsverteilungen. Der deterministische Fall zeigt das Maximum bei geringen Abständen um 0 herum. Diese Verteilung wird in der Literatur auch als Poisson Verteilung bezeichnet.
Der chaotische Fall zeigt ein Maximum bei Abständen ungleich 0, diese Form bezeichnet man als
Wigner Verteilung.

4.    Externe Einflüsse auf chaotische Prozesse

Die traditionelle Betrachtung geht davon aus, dass auf einen idealen chaotischen Prozess, wie etwa einen Rauschgenerator keinerlei externe Einwirkungen, egal welcher Art, nachgewiesen werden können, weil er sonst per Definition nicht mehr vollständig chaotisch wäre.
Es gibt natürlich auch einen anderen Ansatz zur Interpretation des Zufalls. Wenn man davon ausgeht, dass jedes zufällig erscheinende Verhalten nur durch eine sehr große Anzahl von sich überlagernden, externen Einflüssen hervorgerufen wird, dann bezeichnen wir nur solche Vorgänge als zufällig, deren Komplexität unsere Vorstellungskraft übersteigt.
So gesehen kann Zufall immer als ein Produkt von unzähligen externen Einflüssen angesehen werden. Um hier überhaupt eine sinnvolle Forschung betreiben zu können, muss man zunächst einmal die bereits bekannten Einflussgrößen so weit als möglich unterdrücken bzw. auszuschließen, damit nur noch die bisher unbekannten Einflüsse übrig bleiben.

Wenn wir im Folgenden also von externen Einflüssen sprechen, sind damit nicht die bereits bekannten Einflussgrößen gemeint, weil das Ziel dieser Forschungen das Auffinden einer bis jetzt noch unbekannten Einflussgröße ist. Sehen wir uns zuerst einmal einige bereits bekannte Einflüsse auf Zufallsprozesse an.

4.1.    Klassische Einflüsse

Vor allem bei elektronisch erzeugtem Rauschen hat die Temperatur einen sehr großen Einfluss, da das Rauschen von elektronischen Bauteilen, hauptsächlicher thermischer Natur ist.  So nimmt z.B. die Rauschspannung einer Diode oder eines Transistors mit steigender Temperatur zu.

Um den Temperatureinfluss ausschließen zu können, kann nur ein temperaturstabilisierter Aufbau verwendet werden. Dabei wird dieser auf einer konstanten Temperatur gehalten, die über der Umgebungstemperatur liegen muss.
Dabei stellt sich die Frage, ob die nachzuweisenden externen Einflüsse nicht durch das künstlich erzeugte thermische Rauschen so stark überlagert werden, dass sie nicht mehr nachgewiesen werden können.

Außerdem arbeiten elektronische Rauschgeneratoren immer mit einem Verstärker, der die sehr kleine Rauschspannung der Quelle auf eine nutzbare Größe bringen muss. Dabei besteht immer die Gefahr, dass elektromagnetische Störungen auftreten können. So ist z.B. der Einfluss von Rundfunk oder Mobilfunk zu beachten.

Es ist somit sinnvoll für diese Forschungen, andere Rauschquellen zu benutzen, die störsicherer sind. So ist z.B. der radioaktive Zerfall weitgehend unabhängig von der Temperatur und es bietet sich ein Rauschgenerator an, wie der unter Punkt 3.3.6 vorgestellt wurde. Die Teilchentreffer auf die Photodiode sich auch bei erhöhtem Eigenrauschen der Bauteile oder elektromagnetischen Störungen noch sehr gut zu detektieren.

4.1.1.    Einfluss des Luftdrucks

Dafür ergibt sich bei diesem Aufbau ein anderes Problem. Die Alpha-Teilchen müsse eine kurze Strecke durch die Luft fliegen, um die Photodiode erreichen zu können. Auf diesem Weg kollidieren sie mit den Luftmolekülen, sodass nicht alle Alpha-Teilchen den Detektor erreichen können.

Mit sinkendem Luftdruck steigt somit die mittlere Anzahl der detektierten Zerfälle an. In einer Vakuumglocke wurde unter kontrollierten Bedingungen der Einfluss des Luftdrucks nachgewiesen. Eine Änderung von 1000mbar auf 900mbar verursacht bereits einen deutlichen Anstieg der mittleren Impulsrate.

Als optimaler Rauschgenerator hat sich somit in der Praxis das quantenoptische Prinzip bewährt. Hierbei besteht weder eine Kopplung zur Temperatur, noch zum Luftdruck. Wie aus dem Datenblatt des Quantis zu entnehmen ist, liegt der Anteil vom thermischen Rauschen in den Ausgangsdaten bei kleiner 1%. Außerdem ist das optische Prinzip schon von Natur aus sehr unempfindlich gegenüber elektromagnetischen Störungen, wie aus der heute übliche Lichtleitertechnik bekannt ist.

Wenn man für die Rauschquellen die klassischen Einflüsse soweit erkannt und minimiert hat, dann kann man sich der Erforschung von bis lang noch unbekannten Einflüssen zuwenden.

4.2.    Einflüsse des Bewusstseins

An der Princeton Universität in New Jersey USA, die als eine der angesehensten Universitäten der Welt gilt, wurde 1980 das PEAR Laboratorium (Princeton Engineering Anomalies Research) gegründet. Ziel der dortigen Forschungen ist der Einfluss des menschlichen Bewusstseins auf empfindliche, elektronische Geräte, wie etwa Rauschgeneratoren.
Erste Versuche wurden mit einzelnen Testpersonen, zur gezielten Beeinflussung eines Rauschgenerators durchgeführt. Dabei geht es z.B. darum den Mittelwert der Zufallszahlen je nach Vorgabe zu heben oder zu senken. Im physikalischen Sinne könnte man hierbei auch von einer Beeinflussung der Lautstärke des Rauschens sprechen.

Weitere Versuche richten sich auf eine unbewusste Beeinflussung der Rauschgeneratoren. Dazu wurde ein Roboter an einen Rauschgenerator gekoppelt, der je nach Zustand des Rauschens zufällig seine Fahrtrichtung ändert. Anschließend wurden junge Küken darauf trainiert, diesen Roboter als ihre Mutter zu akzeptieren. Wenn die Küken in einem Käfig eingeschlossen wurden und der Roboter sich in diesem Bereich bewegte konnte festgestellt werden, dass er sich überwiegend in der Nähe der Küken aufhielt. Der Wunsch der Küken, ihre Mutter solle zu ihnen kommen hat das Rauschen im Zufallsgenerator des Roboters so stark beeinflusst, dass er sich letztlich wirklich in der Nähe der Küken aufhielt.
Ein ähnlicher Versuch wurde auch mit Testpersonen durchgeführt, die in dem Raum schlafen sollten, wo sich der doch recht laute Roboter bewegte. Durch den unbewussten Wunsch der Testperson, der Roboter solle sich von ihr weg bewegen, hielt sich der Roboter auch tatsächlich die meiste Zeit ein großer Entfernung zur Testperson auf.

Das derzeit größte Projekt ist das GCP Projekt (Global Consciousness Project), bei dem Langzeitaufzeichnung mit vielen, über den ganzen Erdball verteilten Rauschgeneratoren durchgeführt werden. In diesen Daten wird vor allem der Einfluss des globalen Bewusstseins sichtbar, wenn die Gedanken vieler Menschen auf die gleiche Sache ausgerichtet sind.
Zu globalen Feierlichkeiten, wie etwas zu Silvester werden die Daten der Rauschgeneratoren gezielt ausgewertet. Dafür werden sie entsprechend den Zeitzonen versetzt übereinander gelegt. So konnte über mehrere Jahre hinweg immer am 31.12 um Mitternacht herum ein Abfall in der Varianz der Zufallsdaten festgestellt werden.
Ebenso werden die Daten zu großen Naturkatastrophen oder Terroranschlägen analysiert. So konnte nach den Anschlägen vom 11. September ein Anstieg in der Varianz der Zufallszahlen beobachtet werden.
Die Analyse des Rauschsignals erfolgt dabei nach rein statistischen Methoden, die wir im Folgenden näher betrachten werden.

4.2.1.    Statistische Analyse

Der klassische, analytische Zugang zu zufällig ablaufenden Prozessen ist die Statistik. Mit ihrer Hilfe können über scheinbar chaotische Prozesse allgemein gültige Aussagen getroffen werden. Der Zugang der Statistik ist dabei nicht die Beschäftigung mit dem Einzelereignis an sich, welches nach wie vor unvorhersagbar bleibt, sondern die Frage nach allgemein gültigen Rahmenbedingungen für eine größere Anzahl von zufälligen Ereignissen.
Dadurch müssen natürlich gewissen Einschränkungen in Kauf genommen werden. So ist es mit statistischen Methoden nicht möglich die nächsten Lottozahlen vorherzusagen. Es kann aber unter Zuhilfenahme der Kombinatorik eine Wahrscheinlichkeit angegeben werden, mit der eine Zahlenfolge innerhalb einer großen Anzahl von Ziehungen gezogen werden wird.

Eine Statistik ist also immer eine Aussage über eine größere Anzahl von Messwerten. Wird die dynamische Veränderung einer Statistik über die Zeit betrachtet, so spricht man von Stochastik.

Mittelwert


Der Mittelwert, manchmal auch Durchschnittswert oder Erwartungswert genannt, ist eine Größe, die sich auf eine Vielzahl von Messwerten bezieht und über sie eine generelle Aussage tätigt, die im Mittel zutrifft.

Am Beispiel des Österreichischen Lottos 6 aus 45 kann ganz allgemein die Aussage getroffen werden, dass im Mittel die Summe der gezogenen Zahlen einem ganz bestimmten Wert zustrebt.
Die kleinste mögliche Summe ist 1+2+3+4+5+6=21.
Die größte mögliche Summe ist 40+41+42+43+44+45=255
Diese beiden Fälle treten naturgemäß nur sehr selten, also mit geringer Wahrscheinlichkeit auf.
Viel wahrscheinlicher ist es, dass die Summe in dem Bereich zwischen diesen beiden Extremwerten zu liegen kommt, wenn die Zahlen nicht gerade die Extremwerte einnehmen.
Über eine große Anzahl von Ziehungen liegt die Summe der gezogenen Zahlen im Mittel bei dem Wert (21+255)/2=138.

Im Falle einer gaußförmigen Häufigkeitsverteilung von Zufallszahlen gibt der Mittelwert jenen Zahlenwert an, der am häufigsten in den Zufallszahlen zu finden ist, wie z.B. beim radioaktiven Zerfall die mittlere Zerfallsrate.

Standardabweichung

Die Standardabweichung, manchmal auch als mittlerer Fehler oder quadratischer Mittelwert bezeichnet, ist in der Statistik ein Maß für die Streuung eines Messwertes um seinen Mittelwert.
Die Standardabweichung ist per Definition die Quadratwurzel aus der Varianz, wobei die Varianz wiederum die Summe aller quadrierten Abweichungen der Messwerte von ihrem Mittelwert ist.
Da die Varianz allerdings die quadrierte Einheit der Messwerte aufweist, wird gerne die Standardabweichung benutzt, da sie die gleiche Einheit wie die Messwerte hat.

Statistik und Zeitsignale


Bei der Betrachtung von Zeitsignalen als Grundlage von statistischen Analysen gehen die aus der Statistik bekannten Formeln zur Berechnung von Mittelwert und Standardabweichung direkt in die Formeln für den Gleichspannungsanteil und den Effektivwert aus der Elektrotechnik über.

Die Formel für den Mittelwert ist für beide Fälle identisch. In der Elektrotechnik kennt man den Mittelwert in Form des Gleichspannungsanteils (DC-Offset), der angibt, wie weit das Signal auf der Y-Achse verschoben ist.

Standardabweichung und Effektivwert unterscheiden sich nur durch den Abzug des Mittelwertes von den Messwerten, wobei bei der üblichen Betrachtung von reinen Wechselgrößen der Mittelwert ohnedies Null ist.
In der Elektrotechnik hat der Effektivwert (engl. Root Mean Square, RMS) des Stromes eine sehr große Bedeutung. Er gibt jenen äquivalenten Gleichstrom an, der an einem ohmschen Widerstand die gleiche Leistung umsetzen würde. Bezogen auf Audiosignale ist der Effektivwert daher ein Maß für die Lautstärke des Signals.

Aus dieser Erkenntnis, dass eine statistische Analyse des Effektivwertes bzw. der Varianz nichts anderes ist, als eine Lautstärkemessung des Rauschsignals, bekommen die Forschungen der Princeton Universität unter Punkt 4.2 eine ganz andere, physikalisch nachvollziehbare Bedeutung. Die Lautstärke des Rauschens scheint direkt auf den aktuellen Bewusstseinszustand der Menschen zu reagieren.
Die beobachtete Änderung der Varianz kann nach diesen Erkenntnissen als eine Änderung der Lautstärke des Rauschsignals betrachtet werden. Somit scheint der beobachtete Effekt durchaus logisch zu sein, dass bei einer Abnahme der globalen Unordnung auch das Signal des Rauschgenerators leiser wird. Wenn viele Menschen zusammen in Frieden feiern, dann nimmt das Chaos insgesamt ab, das Rauschen wird leiser, die Varianz sinkt.
Wenn viele Menschen hingegen in Panik geraten, so nimmt insgesamt das Chaos zu, das Rauschen wird lauter, die Varianz steigt.
Der Einfluss des Bewusstseins äußert sich demnach in Form einer Amplitudenmodulation des Rauschsignals. Wie später unter Punkt 4.3.1 noch gezeigt wird, ist ein solches Signal nicht einfach mit gängigen Analysemethoden zu erfassen.

Kumulative Abweichung

Bei der Analyse von sehr geringen Einflüssen kann das Problem auftreten, dass die nachzuweisenden Schwankungen derart klein sind, dass sie in der üblichen Schwankungsbreite des Messwertes untergehen und kaum zu erkennen sind.
Zur Steigerung der Empfindlichkeit bedient man sich der kumulativen Darstellung der Abweichung der einzelnen Messwerte von deren gemeinsamen Mittelwert.
Eine solche Darstellung kann man als Aufsummieren, also als eine Integration der Fehlerabweichung eines jeden Messwertes betrachten. Dadurch können kleinste Tendenzen, die durch die normale Schwankungsbreite überdeckt sind, sichtbar gemacht werden.
Das Verhalten dieser Auswertung gleicht dann einer Integration über alle Werte.
Dieses Beispiel zeigt die beeinflusste Alpha Detektion durch eine Luftdruckschwankung von 100 mbar. Zuerst liegen die Messwerte unter dem gemeinsamen Mittelwert, sodass die Kumulation kontinuierlich nach unten geht. Nach Absenken des Luftdrucks etwa in Bildmitte liegt der aktuelle Messwert über dem gemeinsamen Mittelwert, wodurch die Kumulationskurve nach oben steigt.

Durch die Anwendung der Kumulation wird die Statistik zwar zu einer möglichen Analysemethode für externe Einflüsse auf chaotische Prozesse, aber es gibt sicher noch bessere und vor allem empfindlichere Verfahren. Betrachten wir zunächst einige gängige Analysemethoden.

4.3.    Klassische Analyseverfahren

Bei der Entwicklung von geeigneten Analyseverfahren geht es darum, die Veränderung, die ein externer Einflusses in chaotischen  Prozessen verursacht sichtbar zu machen. Dabei stehen wir vor dem Problem, dass wir weder die genaue Wirkungsweise des Einflusses, noch dessen Struktur kennen.

Sehen wir uns zunächst die gängigen Analyseverfahren in Hinblick auf ihre Tauglichkeit für das Auffinden von Mustern im Rauschen an.
Da die klassische Betrachtungsweise davon ausgeht, dass es solche Muster gar nicht gibt, wird diesem Punkt normalerweise auch keine große Bedeutung zugemessen und etwaige Ergebnisse werden als rein zufällig abgetan und durch Glättung der Messwerte verschleiert.

4.3.1.    Fourier Analyse

Eines der am häufigsten verwendeten Analyseverfahren in der Signalverarbeitung ist die Fourier Transformation. Mit ihrer Hilfe kann ein Zeitsignal in den Frequenzbereich und auch wieder zurück transformiert werden. Dadurch ist neben einer sehr weit reichenden Analyse auch eine aktive Beeinflussung des Signals (Filterung) möglich.
Es gibt verschiedene Arten der Fourier Transformation. Am bekanntesten sind die Diskrete Fourier Transformation (DFT) und die Schnelle Fourier Transformation (engl. Fast Fourier Transformation, FFT).

Betrachten wir die Funktionsweise an Hand der Diskreten Fourier Transformation (DFT). Das Prinzip der Fourier Transformation beruht auf der mathematischen Funktion der Faltung. Damit kann der Anteil des Vorkommens eines Signals in einem anderen bestimmt werden. Im Falle der Diskreten Fourier Transformation wird das Signal nach dem Auftreten aller möglichen sinus- und kosinusförmigen Signalanteile durchsucht. Für jeden Punkt im Frequenzbereich wird eine entsprechende Schwingung erzeugt und anschließend punktweise mit dem originalen Signal multipliziert. Die Summe über alle Multiplikationen ergibt den Anteil dieser Frequenz im originalen Signal.
Wird dies für Sinus- und Kosinusschwingungen durchgeführt, so erhält man zunächst Real- und Imaginärteil des Frequenzspektrums. Um diese zu der üblichen Darstellung eines Frequenzspektrums zu verarbeiten, wird aus Real- und Imaginärteil zuletzt noch der Betrag gebildet. Auf die Winkelinformation wird dabei meist verzichtet. Um das Zeitsignal allerdings aus dem Frequenzbereich wieder korrekt zu rekonstruieren, reicht der Betrag alleine nicht aus, dazu benötigt man zumindest die Information des Realteils.

Da bei einer vollständigen Diskreten Fourier Transformation für jeden Punkt im Frequenzspektrum das komplette Zeitsignal einmal durchlaufen werden muss ist dieses Verfahren sehr rechenintensiv. Die schnelle Fourier Transformation (FFT) nutzt Symmetrien innerhalb der Winkelfunktionen aus, um Rechenoperationen einzusparen, führt aber genau zu dem gleichen Ergebnis.

Die Fourier Transformation geht davon aus, dass jedes Signal durch beliebig viele Sinus- und Kosinusschwingungen dargestellt werden kann. Das ist mathematisch auch tatsächlich für alle möglichen Signalformen beweisbar.
Es stellt sich aber die Frage, ob im Falle von Rauschen, das Muster des externen Einflusses überhaupt als solches erkennbar ist, wenn es in Form einer unendlich großen Anzahl von Sinus und Kosinusanteilen dargestellt ist.

Weiters drängt sich die Frage auf, ob es überhaupt für jedes Muster sinnvoll ist, es als Sinus- und Kosinusanteile darzustellen, oder ob es nicht andere Signalformen gibt, mit denen eine viel einfachere Annäherung an das originale Signal möglich ist.
So könnte man z.B. an Stelle von konstanten sinusförmigen Signalen durchaus auch kurze Wellenpakete benutzen. Auf diesem Prinzip beruht die Wavelet Analyse (engl. Wavelet = „Wellchen“), die vor allem bei modernen Komprimierungsverfahren immer häufiger Anwendung findet.

Download von "gauss.wav"
Weißes Rauschen, gaußförmige Amplitudenverteilung
Wav-Datei in 16Bit Mono, 44100Hz, Dateigröße ca. 64kB
Download von "flat.wav"
Weißes Rauschen, gleichförmige Amplitudenverteilung
Wav-Datei in 16Bit Mono, 44100Hz, Dateigröße ca. 64kB
Grundsätzlich kann die Fourieranalyse immer nur zeitlich periodische Anteile eines Signals ausfindig machen. Auf die Information, die in der Amplitudenverteilung enthalten ist, nimmt sie keine Rücksicht. So ist es z.B. nicht möglich, durch eine Fourieranalyse ein gaußförmig verteiltes Rauschen von einem mit flacher Häufigkeitsverteilung zu unterscheiden. In beiden Fällen erhält man ein lineares Frequenzspektrum.

Ein weiterer Schwachpunkt der Fourier Transformation liegt in einem amplitudenmodulierten Rauschen, wie im Folgenden näher beschrieben wird.

Amplitudenmoduliertes Rauschen


Wenn in den Schwankungen der Aussteuerung eines Signals Informationen codiert sind, spricht man in der Nachrichtentechnik von Amplitudenmodulation. Es ist zugleich das einfachste aller Modulationsverfahren.
Da ein externer Einfluss auf physikalische Rauschgeneratoren als ein zusätzlicher Eintrag von Information betrachtet werden muss, liegt die Vermutung nahe, dass er zu einer Amplitudenmodulation der Rauschspannung führt. Die Forschungen der Princeton Universität unter Punkt 4.2 bestätigen dies ebenfalls, da dort über die Messung des Effektivwertes nur die Lautstärke des Rauschsignals ausgewertet wird.

Eine Amplitudenmodulation entsteht durch die lineare Steuerung der Amplitude einer Trägerschwingung mit dem Momentanwert des modulierenden Signals.
Im Falle einer sinusförmigen Trägerschwingung entstehen dadurch unter- und oberhalb der Trägerfrequenz die so genannten Seitenbänder, jeweils im Anstand der Modulationsfrequenz.
Im Zeitbereich erhält man einen Signalverlauf, dessen Form an eine Schwebung erinnert. Doch dieser muss trotzdem ganz klar von einer Schwebung unterschieden werden, die immer nur aus zwei sich überlagernden Frequenzen entsteht, während es bei der Amplitudenmodulation 3 Frequenzanteile sind.

Bei der für uns interessanten Betrachtung, wird die Trägerfrequenz durch ein chaotisches Signal, also durch ein Rauschen ersetzt. Externe Einflüsse auf den Rauschprozess äußern sich dann sinngemäß als eine Amplitudenmodulation des Rauschens. Wird ein weißes Rauschen benutzt, so sind nun alle Frequenzanteile in gleicher Stärke als Trägerfrequenz wirksam. Das führt dazu, dass ebenfalls alle möglichen Frequenzen als Seitenbänder auftreten.

Download von "wnoise.wav"
Weißes Rauschen
Wav-Datei in 16Bit Mono, 44100Hz, Dateigröße ca. 64kB
Download von "wnoiseam.wav"
Weißes Rauschen amplitudenmoduliert mit 1kHz Sinus
Wav-Datei in 16Bit Mono, 44100Hz, Dateigröße ca. 64kB
Bei der Fourieranalyse eines solchen Signals haben wir daher den interessanten Fall, dass ein moduliertes Rauschen von einem unmoduliertem allein durch das Frequenzspektrum nicht zu unterscheiden ist. Zwar sinkt der Amplitudenwert durch die Modulation ab, aber die eigentliche Modulationsfrequenz ist im Spektrum überhaupt nicht mehr zu erkennen, obwohl die Modulation ein eindeutig sinusförmiger Frequenzanteil ist. Man würde erwarten, dass ein solcher Anteil durch die Fourieranalyse gefunden wird. Da sich der Informationseintrag aber nur auf die Amplitude und nicht auf der Frequenz bezieht bleibt er unentdeckt.

Sowohl beim modulierten, als auch beim unmodulierten Rauschen liegt eine komplett lineare Frequenzverteilung vor. Dennoch ist es im Zeitbereich sehr leicht die beiden Signale voneinander zu unterscheiden. Wir erkennen das modulierte Rauschen an den paketartigen Blöcken, die als Ergebnis der rhythmischen Änderungen der Aussteuerung übrig bleiben.

Es zeigt sich, dass Rauschen sehr hohe Anforderungen an die Analyseverfahren stellt und dass klassische Methoden, wie die Fourieranalyse hierbei versagen.

Download von "wnstop.wav"
Weißes Rauschen, 3kHz Bandstop-Filterung
Wav-Datei in 16Bit Mono, 44100Hz, Dateigröße ca. 64kB
Download von "wnstopam.wav"
Weißes Rauschen, 3kHz Bandstop-Filterung
amplitudenmoduliert mit 1kHz Sinus
Wav-Datei in 16Bit Mono, 44100Hz, Dateigröße ca. 64kB

Um dieses eigenartige Verhalten noch weiter zu untersuchen, verwenden wir ein bandbegrenztes Rauschen als Trägersignal. Dazu wurde das Rauschen durch einen schmalbandigen Bandstopfilter mit der Mittenfrequenz 3kHz geschickt. Wird dieses begrenzte Rauschen anschließend amplitudenmoduliert, so zeigen sich die Seitenbänder als zwei Einzüge im Frequenzspektrum jeweils 1kHz unter- und oberhalb von 3kHz. Es tritt also bei der Verwendung von Rauschen als Trägersignal genau der umgekehrte Fall auf, wie er von sinusförmigen Trägersignalen her bekannt ist.

4.3.2.    Differentiation

Differenzieren oder Ableiten ist ebenfalls eine Methode, die in der klassischen Signalverarbeitung vielfach Anwendung findet.
Differenzieren bedeutet nur die Änderung von einem Messwert zum nächsten zu betrachten. Das Ergebnis der Differentiation ist dabei die Annäherung an die Tangente durch zwei beliebig nahe Messpunkte. Sie ist ein Maß für die Änderungsgeschwindigkeit des Messwertes.

Am Beispiel der Bewegung eines Körpers:
Als Messwerte stehen nur Ortsangaben z.B. in m zur Verfügung.
Die 1. Ableitung nach der Zeit entspricht der Geschwindigkeit, man betrachtet wie viele m pro sec zurückgelegt werden.
Die 2. Ableitung nach der Zeit entspricht der Beschleunigung, man betrachtet, um wie viele m pro sec sich die Geschwindigkeit pro sec ändert. Daraus folgt die bekannte Einheit m pro sec^2 für die Beschleunigung.

Auf die Differenzbildung treffen wir vor allem auch im Bereich der biologischen Lebewesen. So können wir bewegte Objekte viel besser wahrnehmen als stillstehende. Am Rande unseres Gesichtsfeldes können sogar ausschließlich nur noch bewegte Objekte gesehen werden.

Auch die Informationsverarbeitung unseres Gehörs folgt dem Prinzip der Differenzbildung.
Am Beispiel der Melodie: Wir erkennen eine Melodie, auch wenn sie lauter oder leiser gespielt wird. Wir erkennen sie, auch wenn schneller oder langsamer gespielt wird und wir erkennen sie auch dann noch, wenn sie in einer anderen Tonlage oder mit einem anderen Instrument gespielt wird. Demnach ist die Information der Melodie nicht in den absoluten Frequenzen der Noten und auch nicht in der absoluten zeitlichen Abfolge codiert, sondern nur in den relativen Abständen zwischen zwei benachbarten Noten.

Zur Ableitung von nicht analytischen Funktionen, wie es etwa ein Rauschen ist, wird die numerische Differentiation benutzt, wie sie bereits vor 250 Jahren von Leonard Euler eingeführt wurde. Sie beruht auf der Differenzbildung zwischen zwei benachbarten Messwerten.
Dabei besteht ein grundsätzlicher Unterschied zur mathematischen Definition des Differenzierens. Numerisches Differenzieren setzt voraus, dass ein Signal in diskreten, aufeinander folgenden Zeiteinheiten abgetastet wurde. Dadurch entstehen zwangsweise Lücken und es kann nicht jeder Signalverlauf originalgetreu abgebildet werden. Es wird durch die Abtastrate eine obere Grenzfrequenz eingezogen, über der das Signal nicht mehr richtig dargestellt werden kann. Gemäß dem Abtasttheorem darf das Signal maximal solche Frequenzen enthalten, die der ½ Abtastrate entsprechen.
Im Sinne der Änderungsgeschwindigkeit stellt diese Frequenz gleichzeitig auch die größte noch darstellbare Änderungsgeschwindigkeit dar.
Durch diese Einschränkung wirkt das Differenzieren auf abgetastete Signale nicht mehr neutral auf den Frequenzgang, wie es die mathematische Definition fordern würde.

Download von "wnoise.wav"
Weißes Rauschen
Wav-Datei in 16Bit Mono, 44100Hz, Dateigröße ca. 64kB
Download von "wnoisedi.wav"
Weißes Rauschen, 50 mal hintereinander differenziert
Wav-Datei in 16Bit Mono, 44100Hz, Dateigröße ca. 64kB
Das wird deutlich, wenn man ein Signal mehrere male hintereinander differenziert. Dann werden die tiefen Frequenzanteile gedämpft und es bleiben nur noch die höchsten Frequenzanteile um die ½ Abtastrate übrig.
Beweisen lässt sich dieses Verhalten sehr schön, wenn man ein Rauschen z.B. 50 mal hintereinander differenziert. Dann bleibt eine Schwebung mit der Grundfrequenz der ½ Abtastrate übrig. Wendet man auf das gleiche Rauschen ein schmalbandiges Bandfilter mit der ½ Abtastrate als Mittenfrequenz an, so erhält man annähernd die gleiche Kurvenform.

Aus der Signalverarbeitung kennt man das Verhalten von Mittelwert- und Differenzbildung in Form der Tiefpass- und Hochpassfilterung. Mittelung über mehrere Abtastwerte reduziert die Unruhe (die hohen Frequenzanteile) im Signal, wohingegen tiefe Frequenzanteile davon weitgehend unberührt bleiben.
Im Fall der Differenzierung tritt genau der umgekehrte Fall auf: Die tiefen Frequenzanteile werden abgeschwächt und die hohen bleiben bestehen, es entsteht ein Hochpassfilter.
Ein abgetastetes Zeitsignal zu differenzieren bedeutet nichts anderes, als es einer Hochpassfilterung bei der Frequenz der ½ Abtastrate zu unterziehen.

Dieses Verhalten wird noch deutlicher sichtbar, wenn man den Einfluss der einzelnen Abtastwerte über mehrere Differentiationsschritte hinweg betrachtet. Zunächst fällt auf, dass die Gewichtung der einzelnen Abtastwerte den Binomial Koeffizienten des Pascalschen Dreiecks folgt.
Durch die fortlaufende Differenzbildung wird jeder Abtastwert mit dem umgekehrten Vorzeichen bewertet, wie seine unmittelbaren Nachbarn. Dieser Sprung des Vorzeichens von einem Abtastwert zum nächsten entspricht der höchst möglichen Frequenz der halben Abtastrate, die in diesem Fall am stärksten in das Ergebnis eingeht.

Es stellt sich die Frage, wie weit es sinnvoll ist, das Differenzieren für die Analyse von Rauschsignalen zu benutzen. Das äquivalente Verhalten der Hochpassfilterung kommt einer Reduzierung der Informationsdichte im Rauschen gleich. Da Rauschen als die größte mögliche Informationsdichte innerhalb des jeweiligen Frequenzbereichs betrachtet werden, könnte man sagen, dass jede Struktur, die im Rauschen gefunden wird automatisch weniger Information enthalten muss, als das Rauschen selbst. So gesehen ist eine Begrenzung der Bandbreite zumindest ein guter Ansatz, um Rauschen zu analysieren. In Weiterentwicklung dieses Verfahrens wäre so noch sinnvoller einen Bandpassfilter zu benutzen der nicht auf die ½ Abtastrate gebunden ist und so ganz bestimmte Frequenzbereiche analysieren kann.

Ein anderer Ansatz zur Analyse von Rauschen ist die Wellensimulation, deren Ziel es ist keine Frequenzanteile auszublenden, sondern sie nur voneinander zu trennen.

4.3.3.    Wellensimulation

Die Idee eine Wellensimulation zur Analyse von Rauschsignalen zu benutzen, entstammt aus der Beobachtung von durch Wind erzeugten Wasserwellen auf einem See. Wenn es windstill ist und der See völlig ruhig da liegt, so sollte seine Oberfläche zumindest theoretisch ideal glatt sein. Eine ideal glatte Fläche würde aber dem Wind keinerlei Angriffspunkte bieten, sodass durch Wind niemals Wellen entstehen könnten.
Man muss daher davon ausgehen, dass kleine, immer vorhandene Unebenheiten in der Wasseroberfläche die ersten Angriffspunkte für den Wind bieten, von denen ausgehend sich dann allmählich Wellen bilden.
Kleine, unvorhersagbare Fluktuationen in der Wasseroberfläche können viele verschiedene Gründe haben. Angefangen von Strömungen im Wasser bis hin zur thermischen Bewegung der Wassermoleküle. Diese Fluktuationen können wohl am ehesten mit einem  Rauschen verglichen werden, dass der Seeoberfläche überlagert ist.

Bei aufkommendem Wind bildet dieses Rauschen die Grundlage für die entstehenden Wellen. Dabei ist es so, dass die charakteristischen Eigenschaften der Wellen, wie Amplitude und Wellenlänge nicht durch das anfänglich vorhandene Rauschen bestimmt werden, sondern nur durch die Mediumseigenschaften, in diesem Fall des Wassers.
Bei gleicher Windstärke kommt es daher auf zwei mit Wasser gefüllten Seen letztendlich zur Ausbildung der gleichen Wellenstruktur, obwohl das Rauschen auf der Wasseroberfläche zu Beginn sicher nicht gleich war.
Für eine Wellensimulation die auf ein Rauschen angewandt wird, kann man daher sagen, dass diese die charakteristischen Eigenschaften des zugrunde liegenden Mediums zu Tage bringen wird.

Wenn man von einem kosmischen Trägerfeld, welches ein Medium für alle chaotischen Prozesse darstellt ausgeht, so sind dessen Eigenschaften letztendlich für das Ergebnis der Wellensimulation in einem Rauschsignal verantwortlich.
Wenn man weiters annimmt, dass dieses Trägerfeld gewissen Schwankungen unterliegt, die global auf alle chaotischen Prozesse wirken, so muss sich das Endergebnis der Wellensimulation in verschiedenen Prozessen ein ähnliches dynamisches Verhalten zeigen.
Das wäre vergleichbar mit den Wasserwellen in zwei getrennten Seen, in denen sich z.B. die Dichte des Wassers im gleichen Rhythmus ändert. In diesem Fall würde sich selbst bei gleicher Windstärke die Frequenz und die Amplitude der Wellen auf beiden Seen im gleichen  Rhythmus ändern.

Unter der Betrachtung, dass Rauschen einen zeitlosen Charakter hat, bekommt die Wellensimulation noch eine ganz andere Bedeutung. Wellen als solche sind zeitgebundene Erscheinungen. Sie können nur durch die fortwährende Änderung ihres Zustandes in der Zeit existieren. Wendet man nun eine Wellensimulation auf das zeitlose Rauschen an, so kann man erwarten, dass dem Rauschen dadurch ein gewisser Zeitbezug zurückgegeben wird und es so für zeitgebundene Analyseverfahren verwertbar wird.
Karplus-Strong
Als einfachste Art der Wellensimulation kann der Karplus Strong Algorithmus betrachtet werden.
Dieser Algorithmus wurde 1983 von Kevin Karplus and Alex Strong entwickelt. Er findet vor allem in der elektronisch erzeugten Musik Verwendung und dient zur Simulation von schwingenden Saiten.
Die Idee dahinter geht davon aus, dass der anfängliche Energieeintrag beim Anstoßen einer Saite wesentlich mehr Frequenzanteile enthält, als die Saite in der Lage ist zu schwingen. Die kontraproduktiven Frequenzanteile werden in Laufe der Schwingung immer stärker gedämpft, als die Grundfrequenz der Saite.


 Im einfachsten Fall benutzt man als anfänglichen Energieeintrag ein Rauschen, welches alle Frequenzen enthält. Durch ständige Tiefpassfilterung werden Frequenzen die höher als die gewünschte Grundfrequenz sind immer stärker gedämpft. Als Endergebnis erhält man nach einiger Zeit ein reines Sinussignal mit der tiefsten möglichen Frequenz innerhalb des betrachteten Zeitabschnittes.
Für abgetastete Zeitsignale ist es sehr einfach einen Tiefpassfilter zu realisieren. Dazu reicht es aus, immer den Mittelwert zwischen zwei benachbarten Messwerten zu bilden. Dadurch werden die hohen Frequenzanteile immer stärker gedämpft, während tiefe fast unverändert erhalten bleiben.
Die Grundfrequenz wird durch die Wahl der Länge des Zeitsignals bestimmt, welches dann in einem Ringbuffer der fortlaufenden Tiefpassfilterung unterzogen wird. Es bleibt als Endergebnis genau jene Frequenz übrig, deren volle Periode gerade noch innerhalb der gewählten Länge darzustellen ist.

Download von "saite.wav"
Aus den ersten 100 Samples des weißen Rauschens in "wnoise.wav" entsteht durch fortlaufende Tiefpassfilterung ein Geräusch wie von einer gezupften Saite.
Wav-Datei in 16Bit Mono, 44100Hz, Dateigröße ca. 87kB

Schrödinger’s Wellengleichung

Die Wellensimulation bietet auch noch einen interessanten Zusammenhang zur Quantentheorie. Dort werden Teilchen immer durch ihre Wellenfunktion mit Hilfe von Schrödinger’s Wellengleichung beschrieben. In der Quantentheorie ist überhaupt erst dadurch das unkonventionelle Verhalten von Teilchen zu erklären. Es bietet sich daher an, diese Form der Wellensimulation auch zur Analyse von Rauschsignale zu benutzen.

In der praktischen Anwendung benötigt man für die Wellensimulation zwei voneinander unabhängige Energiespeicher, zwischen denen die Energie hin und her pendeln kann. Im Falle der Wasserwellen sind dies einerseits die Lageenergie aus der Höhe und andererseits die Bewegungsenergie aus der Geschwindigkeit der Wassermassen.
Für eine mathematische Simulation werden dazu häufig die Begriffe Real- und Imaginärteil benutzt, die in diesem Fall aber nur die beiden Energiespeicher darstellen.
Damit es zur Wellenbildung kommt muss zwischen Real- und Imaginärteil immer eine 90° Phasenverschiebung vorliegen. Steht nur ein Signal zur Verfügung, so muss zunächst mit der Hilbert Transformation ein um 90° phasenverschobenes Signal erzeugt.

Die Hilbert-Transformation ist eine Integraltransformation. Sie arbeitet ähnlich wie die Differentiation. Denn auch beim Differenzieren tritt eine 90° Phasenverschiebung auf, allerdings mit dem Unterschied, dass die Amplitude von der Frequenz des ursprünglichen Signals abhängt.
Um diesen Einfluss auszugleichen, wird die Differenzenbildung zu beiden Seite des betrachteten Abtastwertes durchgeführt und zusätzlich noch einer hyperbolischen Gewichtung unterzogen. Als Endergebnis erhält man ein 90° phasenverschobenes Signal, mit genau der gleichen Amplitude des ursprünglichen Signals.
Diesen beiden Signalen werden nun dem Real- und Imaginärteil zugeordnet und anschließend der Wellensimulation zugeführt.

Die Wellensimulation basiert auf dem Energietransport von Real- zu Imaginärteil und umgekehrt über die 2. Ableitung der jeweiligen Kurvenform. Dies entspricht den Beobachtungen von Schwingungen und Wellen in der Natur. Dort wo ein Energiespeicher die größte Änderungsgeschwindigkeit durchläuft, wird die meiste Energie auf den anderen Energiespeicher übertragen. Im Falle einer 90° Phasenverschiebung kommt es zu dem bekannten Energietransport in eine Richtung, der typisch für eine Wellenausbreitung ist.

Download von "burst.wav"
Ein Paket mit weißem Rauschen
Wav-Datei in 16Bit Mono, 44100Hz, Dateigröße ca. 5kB
Download von "burstwav.wav"
Wellensimulation mit dem Rauschpaket
Wav-Datei in 16Bit Mono, 44100Hz, Dateigröße ca. 5kB
Das auffälligste Merkmal der Wellensimulation ist die unterschiedliche Laufgeschwindigkeit von hohen und tiefen Frequenzen. Für Wellen, die in einem Rauschen simuliert werden, bedeutet dies, dass die hohen Frequenzanteile die tiefen einholen und sich von ihnen entfernen. Als Ergebnis einer solchen Simulation erhält man ein Zeitsignal, dass zu Beginn nur tiefe Frequenzen enthält und gegen Ende hin nur noch hohe Anteile aufweist.
Im Prinzip ist das Ergebnis ähnlich einer Fourieranalyse, mit dem Unterschied, dass hier der originale Zeitverlauf des Signals weitgehend erhalten bleibt.

4.4.    Kosmologische Einflüsse

Der russische Physiker S.E. Shnoll hat an der Lomonosov Universität Moskau Untersuchungen an den Zerfallsraten von radioaktiven Proben aus Plutonium 239 durchgeführt und dabei kosmologisch bedingte Einflüsse festgestellt.
In dem Artikel mit dem Namen "Realization of discrete states during fluctuations in macroscopic processes" erschienen 1998 in Physics Uspekhi, konnte er zeigen, dass sich gewisse Strukturen im Rauschen im Laufe von 24 Stunden, 27 Tagen und 365 Tagen wiederholen und somit eindeutig einen Zusammenhang zu den Bewegungen von Erde, Mond und Sonne aufweisen. Weiters konnte er zeigen, dass der Einfluss auch auf die verschiedensten Zufallsprozesse wirkt und selbst bei großer Entfernung zwischen den Zufallsquellen noch nachweisbar ist.
Bei einem Vortrag im Herbst 2005 an der Universität Krems stellte Prof. Shnoll seine Forschungsmethoden ausführlich dar.

Shnoll erkannte bei der Auswertung von Messdaten unterschiedlichster Prozesse eine ähnliche Struktur in der Häufigkeitsverteilung der Messwerte, wenn die Messungen zur gleichen Zeit durchgeführt wurden.
Seine Analysemethode basiert daher auf dem optischen Vergleich von Histogrammformen. Sehen wir uns daher zunächst einmal das Histogramm näher an.

4.4.1.    Histogramme

Ein Histogramm ist eine statistische Analysemethode, welche die Häufigkeitsverteilung von Messwerten graphisch dargestellt. Dazu wird die Anzahl der vorkommenden, gleichen Messwerte gezählt. Um gleiche Messwerte finden zu können, ist es notwendig Wertebereiche, so genannte Klassen, zu definieren, innerhalb derer zwei Messwerte als identisch gelten. Ein „analoges“ Histogramm mit unendlich vielen Klassen ist nicht sinnvoll, weil darin jeder Messwert nur einmal vorkommen würde und das Histogramm eine glatte Linie bei der Häufigkeit eins ergebe.
Erst wenn durch die Klassendefinition die Genauigkeit der Messwerte eingeschränkt wird, können innerhalb einer Klasse mehrere Messwerte gezählt werden.
Ein Histogramm besteht daher immer aus einer endlichen Anzahl von Balken, entsprechend der  gewählten Klassenbreite.

Wenn wir von Histogrammen in Verbindung mit abgetasteten Zeitsignalen sprechen, meinen wir meistens ein Amplitudenhistogramm, also eine Häufigkeitsverteilung der Abtastwerte. Es ist aber auch möglich, ein Histogramm über die Zeitdifferenzen zwischen identischen Abtastwerten innerhalb einer Klasse zu bilden, was aber kaum Verwendung findet.

Je nach Art des zufälligen Prozesses erhalten wir verschiedene Kurvenformen für das Histogramm. Die häufigste Form ist eine gaußförmige Häufigkeitsverteilung der Messwerte. Sie tritt bei den meisten natürlichen und physikalischen Prozessen auf. So weisen z.B. auch die analogen Rauschquellen aus Punkt 3.2 eine gaußförmige Amplitudenverteilung auf. Das bedeutet, gibt einen bevorzugten Amplitudenwert, der am häufigsten auftritt. Über und unter diesem Wert nimmt die Wahrscheinlichkeit ab. Sehr große und sehr kleine Amplitudenwerte treten dementsprechend nur sehr selten auf.
Andere zufällige Prozesse, wie z.B. eine Lottoziehung liefern Zahlen, die über ihren gesamten Wertebereich gleichförmig verteilt. Es kann jede Zahl mit gleich großer Wahrscheinlichkeit gezogen werden. Das Histogramm über mehrere Ziehungen ergibt eine flache Linie. Solche flache Verteilungen sind meist ein Zeichen für künstlich erzeugte Zufallszahlen und dementsprechend weisen auch viele Pseudorauschgeneratoren, wie z.B. der aus Punkt 3.4 eine flache Häufigkeitsverteilung auf.

Für den Eintrag in einem Amplitudenhistogramm ist nicht der Zeitpunkt der Abtastung ausschlaggebend, sondern nur die Größe des Abtastwertes. Ein Amplitudenhistogramm löst daher den Zeitbezug der Abtastwerte für den gewählten Messzeitraum ganz bewusst auf.

Unter dieser Betrachtung wird klar, warum sich Histogramme so gut für die Suche nach noch unbekannten Mustern im Rauschen eignen. Wir können davon ausgehen, dass die gesuchten Muster eine sehr komplexe zeitliche Struktur haben müssen, denn sonst wären sie mit gängigen Analyseverfahren wie XY-Plot, FFT oder Korrelation (Faltung) bereits gefunden worden. All diese Verfahren beruhen immer auf der Annahme, dass Muster eine konstante, sich zeitlich wiederholende Struktur besitzen, also periodisch sind. Fraktal aufgebaute, nicht periodische Muster können damit nicht ausfindig gemacht werden.
Für solche fraktale Muster ist die Suche um ein Vielfaches schwieriger, weil die zeitliche Veränderung des Musters berücksichtigt werden muss. In dem vorliegenden Fall ist noch dazu der Verlauf dieser zeitlichen Veränderung nicht einmal bekannt.
Hier bietet sich das Histogramm als Analyseverfahren geradezu an. Für die Form eines Histogramms ist es egal, in welcher zeitlichen Abfolge die zugehörigen Messwerte auftreten, die zeitliche Struktur des Musters muss nicht bekannt sein. Beim Vergleich von zwei Histogrammformen auf Ähnlichkeit wird somit auf Ähnlichkeit außerhalb der zeitlichen Zuordnung der Messwerte verglichen.

4.4.2.    Vergleich von Histogrammformen

Nach der Methode von S.E. Shnoll bildet man aus einem Zeitsignal einzelne Histogramme über kurze, aufeinander folgende Zeitabschnitte.
Innerhalb der zeitlich aufeinander folgenden Histogramme werden anschließend optisch ähnlich aussehende Formen gesucht.
Das beim optischen Vergleich angelegte Kriterium sollte nicht so sehr auf  Deckungsgleichheit ausgerichtet sein, sondern vielmehr die Form beurteilen. Das kann in etwa damit verglichen werden, wie ein handschriftliches "A" mit einem gedruckten "A" zwar ähnlich ist, aber nicht unbedingt deckungsgleich sein muss. Beim Vergleich sind daher gewisse Transformationen mit den Histogrammen möglich. Es ist eine Verschiebung entlang der X-Achse und eine Größenänderung entlang der X-Achse zulässig. Sogar Spiegelung an der X-Achse ist erlaubt, wobei der Spiegelung eine besondere Bedeutung einzuräumen ist, worauf unter Punkt 4.4.10 noch näher eingegangen wird.
Im letzten Schritt der Auswertung wird die Häufigkeitsverteilung der Zeitdifferenzen zwischen ähnlichen Histogrammen dargestellt. Dazu wird die Zeitdifferenz zwischen allen als identisch erkannten Histogrammen berechnet und die Häufigkeitsverteilung dieser Abstände anschließend graphisch dargestellt.

In einer praktischen Auswertung ist es wichtig, dass nur so viele Messwerte pro Histogramm benutzt werden, dass das Histogramm nicht zu glatt wird, sondern eine gewisse Feinstruktur erhalten bleibt. In diesem Beispiel wurden nur 60 Messwerte zur Bildung eines Histogramms herangezogen. Dadurch besteht das ungeglättete Histogramm nur aus wenigen Linien und ist für einen optischen Vergleich noch nicht geeignet. Es muss daher noch geglättet werden, sodass eine stetige Kurve über die Dichteverteilung der einzelnen Histogrammlinien entsteht. Dazu eignet sich die Mittelwertsbildung über jeweils 3 Klassen des Histogramms. Wird das wie hier 100 mal hintereinander durchgeführt, erhält man einen stetigen  Kurvenverlauf, der sehr gut für den optischen Vergleich geeignet ist.

Das Verfahren nach Shnoll hat durch das Schieben und Zoomen der Histogrammformen einige ganz spezielle Eigenschaften in Bezug auf die Kenngrößen eines Rauschsignals.
Durch diese Verfahren werden Mittelwert und Effektivwert, als die beiden wichtigsten Kenngrößen eines Rauschsignals, ganz bewusst nicht zur Auswertung gebracht.
Durch das Verschieben der Histogramme auf ihrer X-Achse wird automatisch eine eventuelle Schwankung des Mittelwertes ausgeglichen. Durch das Zoomen der Histogramme entlang ihrer X-Achse werden automatisch eventuell vorhandene Aussteuerungsunterschiede (Effektivwertänderungen) im Signal ausgeglichen.
Somit wäre es prinzipiell sogar möglich, mit relativ schlechten Rauchquellen zu arbeiten, welche auf klassische Einflüsse wie z.B. auf die Temperatur oder den Luftdruck durch Änderung des Mittelwertes reagieren.

4.4.3.    Richtungsempfindlichkeit

S.E. Shnoll konnte bei seinen Untersuchungen zeigen, dass es je nach Aufbau der Rauschquelle eine Richtwirkung gegenüber dem Einfluss gibt. Bei seinen Messungen am radioaktiven Zerfall von Plutonium 239 stellte er fest, dass bei Ausrichtung der Strahlenquelle-Detektor Einheit in Ost-West Richtung der 24stündige Rhythmus auftritt, bei Ausrichtung auf den Polarstern hingegen nicht, womit eindeutig der Zusammenhang mit der Erdrotation hergestellt ist.
Die Richtwirkung konnte noch weiter gesteigert werden, indem zwischen der Strahlenquelle und dem Detektor ein so genannter Collimator angebracht wurde. Das ist eine Platte mit dünnen, vertikalen Bohrungen, welche von der Quelle schräg abfliegende Teilchen vor ihrem Erreichen des Detektors absorbiert.

Untersuchen wir unsere Rauschgeneratoren einmal auf ihre Richtwirkung. Beim radioaktiven Zerfall liegt der gleiche Fall wie bei Shnoll vor. Somit ist klar, dass hier die Richtungsempfindlichkeit in Flugrichtung der Alpha-Teilchen auftreten wird.
Beim quantenoptischen Rauschgenerator „Quantis“ ist anzunehmen, dass er in jener Richtung empfindlicher sein wird, in der die Photonen zu den Detektoren fliegen. Leider werden von der Herstellerfirma keine Details über den Aufbau und die Lage des optischen Systems innerhalb des Moduls bekannt gegeben.

Deshalb wurde von dem Quantis Modul eine Röntgenaufnahme angefertigt, um die Lage des optischen Systems im Modul darzustellen. Das Bild wurde im Gegensatz zu klassischen Röntgenbildern invertiert, wodurch dichtere Materialien dunkler erscheinen, was eher unserem Verständnis entspricht und leichter eine Interpretation zulässt. Gut zu erkennen ist die Spannungszuführung an Pin 2 links unten an Hand der dickere Leiterbahn.

Das eigentliche optische System ist demnach ein relativ kleiner Quader aus dichterem Material und dürfte vom Aufbau her etwa dem Design von älteren CD-Pickups entsprechen. An den 4 Ecken des Quaders sind optische Bauteile, ähnlich Laserdioden zu erkennen. Es ist allerdings nicht eindeutig, wo die Photonen erzeugt, abgelenkt und detektiert werden. Trotzdem ist klar, dass in der Längsrichtung des Quaders die optoelektrischen Bauteile angebracht sind, woraus folgt, dass sich die Photonen ebenfalls in Längsrichtung des Quaders, also entlang der kurzen Kante des gesamten Moduls bewegen müssen. Obwohl die eigentliche Flugrichtung der Photonen weiterhin unklar bleibt, ist die Information über deren Flugbahn auch schon sehr nützlich.

Bei allen Halbleiter Rauschgeneratoren ist es hingegen nicht klar, ob und in welcher Richtung sie empfindlicher auf den Einfluss reagieren könnten. Die geometrische Anordnung der Sperrschichten in den Halbleiterbauteilen ist je nach Bauteiltyp komplett unterschiedlich.

4.4.4.    Aufzeichnung

Um all zu lange Aufzeichnungszeiten zu vermeiden, soll zunächst nur der 24stündige Rhythmus betrachtet werden. Dazu muss zumindest über einen Zeitraum von 72 Stunden aufgezeichnet werden. Bei kürzeren Aufzeichnungszeiten ist es nicht mehr möglich, ausreichend viele Histogramme mit einer Zeitdifferenz von 24 Stunden miteinander zu vergleichen.

Für alle Untersuchungen wurde der Rauschgenerator „Quantis“ aus Punkt 3.3.5 benutzt, da er am unempfindlichsten gegenüber klassischen Störeinflüssen ist. Die Datenrate wird über die Interfaceschaltung so weit reduziert, dass sich eine für die manuelle Auswertung noch vertretbare Anzahl von Histogrammen ergibt.

Dieser Bitstrom weist eine gleichförmige Häufigkeitsverteilung auf, jedes Bit ist gleich stark bewertet.
Um den Bitstrom für die Auswertung in eine gaußförmige Häufigkeitsverteilung umzuwandeln, wird in diesem Bitstrom gezählt, wie viele 1er er innerhalb einer konstanten Zeiteinheit von z.B. 10 Sekunden enthält. Dadurch reduziert sich die Datenmenge erheblich.

Für eine 72 Stunden lange Aufzeichnung ergeben sich so 25920 Messwerte im 10 Sekunden Takt. Aus jeweils 60 solcher Messwerte wird ein Histogramm gebildet, woraus sich dann 432 Histogramme im 10 Minuten Takt ergeben.

4.4.5.    Ost-West Ausrichtung

74 Stunden lange Aufzeichnung
Ausrichtung Ost-West

Download von "zyklen1.zip"
Rohdaten: "Quantis_170106_19h00_1er_in10s.txt"
Start der Aufzeichnung am 17.01.06 um 19:00 Uhr MEZ
26640 Messwerte im 10 Sekunden Takt, Textformat
Ausrichtung: Kurze Kante des Quantis entlang 60° - 240°

Auswertung: "74hVergleich.txt"
Index Nummern der ähnlichen Histogramme
Zeitdifferenzen zwischen ähnlichen Histogrammen
Anzahl der ähnlichen Histogramme pro Zeitdifferenz
Zum Nachweis des 24stündigen Rhythmus wurde das Quantis gemäß den Erkenntnissen der Richtwirkung aus Punkt 4.4.3 in Ost-West Richtung ausgerichtet und über einen Zeitraum von 74 Stunden aufgezeichnet.
Die Auswertung erfolgte gezielt bei Zeitdifferenzen um 0 und 24 Stunden herum, da der Aufwand für den manuellen Vergleich aller möglichen Zeitdifferenzen sehr groß ist.
Zunächst zeigt sich ganz deutlich eine Häufung hin zu geringen Abständen. Diese ist begründet durch die begrenzte Aufzeichnungszeit von 74 Stunden und somit systembedingt. Es liegt in der Natur der Sache, dass kürzere Abstände einfach viel öfters in diesen Zeitraum hinein passen, als große. Der Abstand 74 Stunden kann sich im besten Fall nur einmal finden lassen, während der Abstand von 10 Minuten (1 Histogramm) maximal 443 mal gefunden werden könnte.
Der Abfall dieser systembedingten Häufung kann durch Ziehen einer Gerade von der Häufigkeit gleich der Anzahl der Histogramme bis zur Häufigkeit 0 bei der Aufzeichnungslänge dargestellt werden.

Im Bereich der 24 Stunden zeigt sich eindeutig eine überproportionale Häufung der ähnlichen Histogrammformen, welche den nachzuweisenden 24stündige Rhythmus darstellt.
Zusätzlich dazu ist ebenfalls eine überproprtionale Häufung der Ähnlichkeit bei 0 Stunden Zeitdifferenz festzustellen. Dieser Effekt wurde von S.E. Shnoll ebenfalls beobachtet und vom ihm als der Effekt der Nahzone bezeichnet. Das bedeutet, dass zeitlich hintereinander folgende Histogramme sich in der Form viel öfters ähnlich sind, als weiter entfernt liegende Histogramme. Dies ist ein Effekt der auch schon beim Vergleichen der Histogramme auffällt und durchaus auch logisch erscheint. Wenn es ein Muster im Rauschen gibt, so liegt es nahe, dass es bei entsprechender Abtastung im lokalen Bereich, in mehreren, aufeinander folgenden Histogrammen auftritt, bevor es seine Form ändert.

4.4.6.    Nord-Süd Ausrichtung

84 Stunden lange Aufzeichnung
Ausrichtung Nord-Süd

Download von "zyklen2.zip"
Rohdaten: "Quantis_070206_21h00_1er_in10s.txt"
Start der Aufzeichnung am 7.02.06 um 21:00 Uhr MEZ
30240 Messwerte im 10 Sekunden Takt, Textformat
Ausrichtung: Kurze Kante des Quantis entlang 150° - 330°

Auswertung: "84hVergleich.txt"
Index Nummern der ähnlichen Histogramme
Zeitdifferenzen zwischen ähnlichen Histogrammen
Anzahl der ähnlichen Histogramme pro Zeitdifferenz
Um die Richtungsempfindlichkeit des Quantis gegenüber dem Einfluss zu untersuchen, wurde eine vergleichbare Aufzeichnung in Nord-Süd Ausrichtung, also mit einer Drehung um 90° durchgeführt.
Es wurde über einen Zeitraum von 84 Stunden aufgezeichnet und wiederum bei Zeitdifferenzen von 0 und 24 Stunden die ähnlichen Histogrammformen bewertet.
Es zeigt sich weder die Häufung bei 24 Stunden, noch bei 0 Stunden. Diese Aufzeichnung entspricht dem, was man von einem idealen Zufallsgenerator erwarten würde, es gib keinerlei Korrelationen innerhalb der Daten.

Durch den Beweis der Richtungsempfindlichkeit des Einflusses sind einige denkbare, klassische Einflüsse automatisch ausgeschlossen. So könnte man z.B. im Falle einer thermischen Beeinflussung des Rauschgenerators den Einfluss durch Ändern der Ausrichtung nicht unterdrücken. Eine Beeinflussung durch Tageslicht oder durch den Luftdruck ist somit ebenfalls auszuschließen.

4.4.7.    Absolute Zeit des Einflusses

144 Stunden lange Aufzeichnung
Ausrichtung Ost-West

Download von "zyklen3.zip"
Rohdaten: "Quantis_260306_22h30_1er_in10s.txt"
Start der Aufzeichnung am 26.03.06 um 22:30 Uhr MESZ
51840 Messwerte im 10 Sekunden Takt, Textformat
Ausrichtung: Kurze Kante des Quantis entlang 90° - 270°

Auswertung: "144hVergleich.txt"
Index Nummern der ähnlichen Histogramme
Zeitdifferenzen zwischen ähnlichen Histogrammen
Anzahl der ähnlichen Histogramme pro Zeitdifferenz
Absolutes Datum/Zeit des jeweils 1. von 2 ähnlichen Histogrammen
Anzahl der ähnlichen Histogramme über der absoluten Zeit
Im dem Fall einer beeinflussten Aufzeichnung stellt sich die für weitere Forschungen interessante Frage, zu welchen Zeiten die Beeinflussung erfolgte. Die ursprüngliche Auswertung stellt ja nur die Zeitdifferenzen zwischen ähnlichen Histogrammen dar, trifft aber keine Aussage darüber, zu welcher absoluten Zeit die ähnlichen Formen auftraten.
Um dies näher zu untersuchen, wurde eine 144 Stunden lange Aufzeichnung mit dem Quantis Zufallsgenerator in Ost-West Ausrichtung durchgeführt. In dem Bereich um 24 Stunden herum wurden wieder die ähnlichen Histogramme markiert. Die am stärksten beeinflusste Klasse um 24 Stunden und 10 Minuten wurde anschließend einer genaueren Auswertung unterzogen.
Die absolute Zeitposition des jeweils ersten der zwei ähnlichen Histogramme wurde ermittelt und die Häufigkeit des Auftretens ähnlicher Histogramme über der absoluten Zeit dargestellt. Da bereits bekannt ist, dass sich der Einfluss nach 24 Stunden wiederholt, wurde nur die absolute Zeit, nicht aber das Datum ausgewertet.

Dabei zeigt sich eine merkliche Erhöhung der Ähnlichkeit in den frühen Morgenstunden und in den Abendstunden. Eine Korrelation mit Sonnenauf- bzw. -untergang drängt sich hierbei auf. Es wäre durchaus logisch nachvollziehbar, dass durch die Lage des optischen Systems des Quantis Zufallsgenerators in Ost-West Richtung sowohl zu Sonnenaufgang, als auch zu Sonnenuntergang jeweils dann eine Beeinflussung auftritt, wenn die Sonne in einer Linie mit der Flugbahn der Photonen steht.

Um diese Theorie noch weiter zu untermauern, betrachten wir ein Sonnenstandsdiagramm für den Ort der Aufzeichnung. Die Sonne ändert über das Jahr ihren Höhenwinkel und somit auch die Position von Sonnenauf- und –untergang, was letztlich zu den unterschiedlichen Jahreszeiten führt.
Die betrachtete Aufzeichnung wurde Ende März durchgeführt. Für diese Jahreszeit erkennen wir, dass die Sonne etwa bei 90° um 6:00 Uhr MEZ aufgeht und bei 270° um 18:00 Uhr MEZ untergeht, was zur Tag-Nacht Gleiche zu Frühlingsbeginn am 21. März ganz genau erfüllt ist.
Das sind genau jene Bedingungen, unter denen der Einfluss auf das in horizontaler Ost-West Richtung liegende optische System des Quantis Moduls zweimal am Tag wirken kann.

4.4.8.    Zwei autarke Rauschquellen

13 Stunden lange, parallele Aufzeichnung
Ausrichtung Ost-West

Download von "zyklen4.zip"
Rohdaten 1: "Quantis1_250406_19h00_1er_in1s.txt"
Rohdaten 2: "Quantis2_250406_19h00_1er_in1s.txt"
Start der Aufzeichnung am 25.04.06 um 19:00 Uhr MESZ
46800 Messwerte im 1 Sekunden Takt, Textformat
Ausrichtung: Kurze Kante beider Quantis entlang 90° - 270°

Auswertung: "13hVergleich.txt"
Index Nummern der ähnlichen Histogramme
Zeitdifferenzen zwischen ähnlichen Histogrammen
Anzahl der ähnlichen Histogramme pro Zeitdifferenz
Nach S.E. Shnoll existiert auch zwischen zwei autark arbeitenden Rauschquellen eine Korrelation, wenn sie unter dem externen Einfluss stehen. Um diesen Effekt nachzuweisen, wurde eine 13 Stunden lange Aufzeichnung mit zwei unabhängigen Quantis Zufallsgeneratoren durchgeführt.
Die Auflösung wurde mit einer Baudrate von 4800 Baud und Zählung der 1er innerhalb einer Sekunde auf 1 Histogramm pro Minute erhöht.
Die Auswertung wurde wieder speziell bei ausgewählten Zeitdifferenzen um 0 herum durchgeführt, wobei diesmal eine Aufzeichnung gegen die andere verglichen wurde.

Die Auswertung zeigt sehr schön die erhöhte Wahrscheinlichkeit für ähnliche Histogrammformen bei Zeitdifferenzen um 0 herum. Das bedeutet, wenn zwei Rauschgeneratoren zur gleichen Zeit in Betrieb sind, ihre Daten eine höhere Korrelation zueinander aufweisen, als wenn die Daten zu unterschiedlichen Zeiten aufgezeichnet werden.

Durch die erhöhte Auflösung zeigt sich der Effekt hier in mehreren, aufeinander folgenden Klassen und fällt dann erst im Bereich von 10 Minuten Zeitdifferenz langsam ab. Das ist auch ein wichtiger Hinweis darauf, dass es sich um einen realen, physikalischen Effekt handelt.

Steigerung der Empfindlichkeit

Die Erkenntnis, dass der Einfluss global auf mehrere Rauschgeneratoren wirkt, kann dazu benutzt werden, die Empfindlichkeit der Messanordnung gegenüber dem Einfluss zu erhöhen. Mitunter ist der nachzuweisende Einfluss auf einen Rauschgenerator so gering oder durch die Streuung des Rauschgenerators überdeckt, dass er nicht klar zu erkennen ist.
Dann ist es sinnvoll, für das Verfahren nach Shnoll, wie auch für alle anderen Analyseverfahren, die parallele Auswertung von zwei oder mehr unabhängigen Rauschgeneratoren anzuwenden.
Unter der Annahme, dass der externe Einfluss global ist, also synchron auf alle Zufallsprozesse wirkt, kann die Empfindlichkeit der Messung dadurch gesteigert werden, dass die Daten mehrerer Rauschgeneratoren übereinander gelegt werden. Die durch den externen Einfluss hervorgerufenen synchronen Anteile verstärken sich dabei, während sich asynchrone Anteile über die statistische Verteilung herausmitteln. Das Muster des externen Einflusses tritt dadurch viel stärker und klarer zu Tage.

4.4.9.    Die gespiegelten Histogramme

Bei den vorangegangenen Auswertungen wurden immer alle Histogrammformen berücksichtigt, worin auch jene Formen enthalten sind, die auf der X-Achse gespiegelt werden mussten, um eine Ähnlichkeit zu erreichen.
Bei der getrennten Betrachtung von gespiegelten und ungespiegelten Histogrammen tritt ein sehr interessanter Effekt auf, der weitere Rückschlüsse auf die Wirkungsweise des Einflusses zulässt.

Betrachten wir zur Beschreibung des Effekts die sehr stark beeinflusste, 74 Stunden lange, Aufzeichnung aus Punkt 4.4.5.
Bei der Berücksichtigung aller als identisch markierten Histogramme zeigt sich neben der Häufung um 24 Stunden auch schön der Effekt der Nahzone mit einer höheren Deckungswahrscheinlichkeit von benachbarten Histogrammen mit Zeitdifferenzen um 0 herum.

Werden für die Auswertung nur noch die ungespiegelten Histogramme herangezogen, so verschwindet der 24 Stunden Rhythmus fast vollständig, während der Effekt der Nahzone erhalten bleibt. Demnach sind benachbarte Histogramme hauptsächlich im ungespiegelten Fall ähnlich, während der relevante Einfluss für den 24stündigen Rhythmus allein von den gespiegelten Histogrammen zu kommen scheint.

Bei der Betrachtung der gespiegelten Histogramme wird dies offensichtlich. Der 24stündige Rhythmus kommt hier noch stärker zu Tage, und der Effekt der Nahzone bei Zeitdifferenzen um 0 verschwindet zur Gänze.

Dieses sehr interessante Verhalten wirft einige zusätzliche Fragen in Bezug auf den Stellenwert des Spiegelns auf. Wenn ein Histogramm gespiegelt werden muss, um mit einem anderen identisch zu sein, dann ist es ja genau genommen weniger identisch, als wenn es bereits in seiner ungespiegelten Form passen würde.

Betrachten wir zur Klärung ein Histogramm mit dem zugehörigen Zeitsignal, aus dem es gebildet wird. Eine Spiegelung des Histogramms auf dessen X-Achse kommt einer Spiegelung des Zeitsignals auf dessen Y-Achse gleich.
Wenn es sich bei dem Zeitsignal z.B. um eine elektrische Größe handelt, wo der Nullpunkt im erwarteten Mittelwert liegt, dann entspricht eine Spiegelung des Histogramms einem Polaritätswechsel des Zeitsignals. Ein solches Verhalten ist von schwingenden Systemen, wie etwa elektrischen Schwingkreisen, her bekannt.

In dem vorliegenden Fall ist die X-Achse des Histogramms die Anzahl der 1er im Datenstrom des Quantis, oder physikalisch gesprochen, die Anzahl der Photonen, die innerhalb von 10 Sekunden durch den Spiegel hindurch gegangen sind. Bei einer vollständigen Spiegelung des Histogramms wären es dann die Anzahl der 0er bzw. die Anzahl der reflektierten Photonen. Dieses Verhältnis der 1er zu den 0ern steht in einem ausgeglichenen Verhältnis und beträgt im Normalfall 50%.
Für den beobachteten Effekt bedeutet dies, wenn benachbarte Histogramme dadurch ähnlicher werden, dass z.B. mehr als 50% 1er im Datenstrom enthalten waren, dann tritt nach 24 Stunden genau der umgekehrte Fall auf und es kommen mehr 0er im Datenstrom vor. Somit ist das Verhältnis im Mittel wieder ausgeglichen, was es ja auch so sein muss, denn wenn immer nach 24 Stunden die Anzahl der 1er zunehmen würde, wären nach längerer Zeit überproportional viele 1er im Datenstrom. Das würde bedeuten, dass sich physikalische Parameter, wie etwa das Reflexionsverhalten des Spiegels ändern müssten. Ein derart massiver Einfluss wäre dann viel auffälliger und müsste nicht mit so aufwendigen Methoden nachgewiesen werden.
Somit erscheint der beobachtete Effekt des Spiegelns durchaus logisch. Benachbarte Histogramme sind dadurch ähnlich, dass sie jeweils eine Abweichung der Messwerte in der gleichen Richtung aufweisen. Die Form vergeht sozusagen langsam mit einer gewissen Zeitkonstante und springt nicht sofort um 180°. Eine derartige Trägheit kennt man von vielen physikalischen Effekten, was wiederum für die Korrektheit der Messung spricht.
Nach 24 Stunden hat sich dann die Phase vollständig gedreht und der Messwert weicht in die entgegengesetzte Richtung ab, was einer langsamen Schwingung gleichkommt. Zusätzlich bleibt dadurch die gesamte Entropie innerhalb der Zufallsdaten erhalten und der Einfluss ist gut verborgen in den Zufallszahlen eingebettet.

Der Einfluss als Schwingung

Zur Beschreibung der Wirkungsweise des Einflusses eignet sich am besten ein Modell, in dem man Attraktoren für bestimmte Amplitudenwerte voraussetzt. Einen solchen Attraktor kann man vergleichsweise als einen Bereich höherer Mediumsdichte beschreiben. Wenn sich der aktuelle Amplitudenwert in einen solchen Bereich hinein bewegt, wird er in seiner Bewegung verzögert und verweilt dort länger, als er es bei den anderen Amplitudenwerten tut. Die zeitlichen Positionen, zu denen ein solches Ereignis eintritt, unterliegen dabei aber nach wie vor dem Zufall und weisen keinerlei periodische Struktur auf, sodass mit üblichen, zeitbezogenen Analysemethoden keine Struktur gefunden werden kann, wie unter Punkt 4.4.1 erläutert wurde.
Erst bei dem Blick auf die Amplitudenverteilung mittels der Histogramme wird die strukturierende Wirkung des Attraktors sichtbar. Entsprechend den Beobachtungen der gespiegelten Histogrammformen ist anzunehmen, dass ein solcher Attraktor nicht still bei einer Amplitudenposition verharrt, sondern sich im Laufe der Zeit ähnlich einer Schwingung verschiebt. Werden aus einem derart beeinflussten Zufallssignal zeitlich aufeinander folgende Histogramme gebildet, so wird der Einfluss des Attraktors in der Häufigkeitsverteilung der Amplitudenwerte sichtbar. Nach der halben Schwingungsperiode des Attraktors tritt dabei die gespiegelte Histogrammform auf.

Dieses Verhalten kann im Sinne von schwingenden Systemen auch als eine Halbierung der Frequenz betrachtet werden. Die Frequenz des gemessenen Einflusses innerhalb der Zufallszahlen ist nur halb so groß, wie die Rotationsfrequenz der Erde. Obwohl die Erddrehung offensichtlich den Einfluss hervorruft, würde man nicht unbedingt eine Frequenzhalbierung erwarten. Eine solche Frequenzumsetzung ist z.B. von parametrischen Schwingkreisen her bekannt, womit eine mögliche Erklärung für die Art des Einflusses gefunden werden kann.
Denkbar wäre z.B., dass von der Sonne ein Einfluss ausgeht, der ein in Erdnähe vorhandenes, schwingungsfähiges Medium zu parametrischen Schwingungen anregt. In diesem Fall wäre der gemessene Effekt dann nur eine sekundäre Auswirkung des eigentlichen Einflusses. Es ist aber auch denkbar, dass der Einfluss selbst einer derartigen Schwingung unterliegt.

4.4.10.    Interpretation der Ergebnisse

Die klassische Betrachtung von physikalischen Zufallsgeneratoren geht davon aus, dass es in ihren Zufallszahlen keine Periodizitäten irgendeiner Art gibt, die Zahlen also in keiner Weise vorhergesagt werden können.
Im Fall des 24stündigen Rhythmus ist es aber möglich vorherzusagen, dass die zu einem Zeitpunkt gemessenen Histogrammformen in 24 Stunden mit einer erhöhten Wahrscheinlichkeit wieder in ähnlicher Form auftreten werden.
Im Fall der Korrelation zwischen zwei unabhängigen Rauschquellen ist es möglich, durch die Untersuchung der einen Quelle, die Histogrammformen der anderen mit einer erhöhten Wahrscheinlichkeit vorherzusagen.

Einflüsse der klassischen Art, wie Temperatur und Elektromagnetismus sind als Ursache auszuschließen. Der Zufallsgenerator ist in einem geschirmten Gehäuse untergebracht und die Messungen wurden in einem geschlossenen Raum bei annähernd konstanter Temperatur durchgeführt.
Vor allen das Phänomen der Richtungsempfindlichkeit gegenüber dem Einfluss lässt sich mit klassischen Modellen nur sehr schwer erklären. Somit muss nach einem alternativen Erklärungsmodell gesucht werden.

Die Sonne wäre auf jeden Fall die naheliegendste Einflussquelle, da sie einerseits die größte Masse in unserer näheren Umgebung darstellt und andererseits auf ihr extrem starke energetische Vorgänge stattfinden. Als Überträger dieses Einflusses könnten z.B. die Neutrinos fungieren, die durch Kernreaktionen in der Sonne in sehr großen Mengen entstehen, sodass uns auf der Erde etwa 70 Milliarden Neutrinos pro cm² und pro Sekunde erreichen. Nach der gängigen Lehrmeinung haben die Neutrinos einen extrem kleinen Wirkungsquerschnitt, sodass eine Wechselwirkung mit Materie extrem selten ist. Es könnte aber dennoch sein, dass ihr Wirkungsquerschnitt für eine informelle Beeinflussung viel größer ist, sodass sie zwar keine materielle Veränderung auslösen, aber eine Information auf unbeobachtete Quantenzustände, wie etwa auf die Photonen im Quantis übertragen. Diese entscheiden sich dann beim Passieren des halbdurchlässigen Spiegels anders, als sie es ohne den Einfluss getan hätten. Diese Betrachtung unterstützt auch die Theorie der verborgenen Parameter, wie sie aus der Quantenphysik her bekannt ist und würde auch der Aussage Einsteins "Gott würfelt nicht" mehr Gewicht verleihen.

Um den eventuellen Einfluss von Neutrinos besser untersuchen zu können, wäre eine steuerbare Neutrinoquelle wünschenswert. Hierfür bietet sich die Kernspaltung an. Bei der Spaltung eines Urankerns weisen die Spaltprodukte einen Neutronenüberschuss auf, der zum Großteil durch Betazerfall abgebaut wird. Beim Betazerfall entsteht neben dem Elektron, welches die eigentliche Betastrahlung darstellt, auch ein Neutrino. Ein Atomreaktor ist somit immer automatisch auch eine Neutrinoquelle. Die Neutrinos können die Abschirmung des Reaktors problemlos durchdringen und so reicht es aus, die Messanordnung neben dem Reaktor zu installieren.

Durch die freundliche Unterstützung des Atominstitutes der Österreichischen Universitäten war es uns möglich, Messungen am TRIGA-Forschungsreaktor durchzuführen.
Der dortige Versuchsaufbau bestand aus zwei parallel laufenden Quantis-Zufallsgeneratoren mit der Ausrichtung auf den Reaktorkern. Zusätzlich wurde die Flucht Quantis -> Reaktorkern nach Norden ausgerichtet, um den natürlichen Einfluss so gering wie möglich zu halten. Es wurde jeweils für den Betrieb und den Stillstand des Reaktors eine parallele Aufzeichnung über 30 Minuten durchgeführt.

Zur Auswertung wurde jeweils die Anzahl der ähnlichen Histogrammformen zwischen den beiden Zufallsgeneratoren ermittelt. Während des Betriebs des Reaktors zeigen sich eine geringere Anzahl von ähnlichen Histogrammen und eine geringere Abhebung gegenüber der benachbarten Klasse, als während des Stillstands des Reaktors. Daraus kann man folgern, dass während des Betriebs des Reaktors ein Einfluss von ihm ausgeht, der eine zusätzliche Entropie auf die Zufallsgeneratoren überträgt, sodass die natürlich vorhandenen Strukturen überdeckt werden.

Im Sinne einer Beeinflussung durch Neutrinos ist es ebenso interessant, den Fixsternhimmel als Quelle des Einflusses zu betrachten, weil sich so die Astrologie im Sinne von "Tagesenergie" bestätigen würde. Es wäre denkbar, dass uns unterschiedliche Neutrinosignaturen von den verschiedenen Sternbildern erreichen. Wenn man die Betrachtung auf den Jahreszyklus ausdehnt, so ist der Effekt ohnedies nur noch über den Fixsternhimmel zu erklären. Demnach hätte jede Himmelsregion ihre eigene Signatur, die während bestimmter Zeiten dann vermehrt auf der Erde ankommt.



Der nun folgende Teil  über die automatisierte Analyse von Histogrammformen unter Punkt 4.5 ist ein Beitrag von meinem Forscherkollegen Wolfgang Zelinka, mit dem ich bei der Untersuchung von Rauschgeneratoren und kosmischen Zyklen eng zusammen arbeite.

4.5. Automatisierte Analyse von Zufallswerten

4.5.1. Ziel unserer Arbeit

Das Ziel unserer Arbeit ist es, die menschliche Entscheidung mittels eines Computerprogrammes nachzuvollziehen. Dabei treten erfahrungsgemäß Schwierigkeiten beim Umsetzen von menschlichen Entscheidungsprozessen in maschinelle Entscheidungen auf.

Auf der Grundlage von Shnoll's Arbeiten über die Rhythmik bzw. dem Vorhandensein von Strukturen in Zufallsprozessen wollen wir eine Feinanalyse machen.
Hierbei hat sich gezeigt, dass die Rhythmik wahrscheinlich nicht einem runden, ganzzahligen Wert entspricht, sondern unrunde Werte liefert. Da in der Natur hauptsächlich unrunde Werte bzw. nicht ganzahlige Verhältnisse auftreten ist dies nicht verwunderlich. Exakte Werte und ganzahlige Verhältnisse sind stabil und lassen keinen Spielraum zu. Unrunde Werte haben eine gewisse Freiheit wodurch eine Dynamik entsteht, die Ursache allen Lebens. (Phi - Goldener Schnitt) Die runden Werte bei der händischen Auswertung sind meines Erachtens auf die grobe Auflösung zurückzuführen.

Das Verfahren nach Shnoll, wie sie es eben gehört haben, ist eigentlich zu 100% ein menschlicher Entscheidungsprozeß. Das vorhandene Computerprogramm "Histogramm Manager" dient lediglich dazu, die Daten so aufzubereiten, dass der Mensch eine leichtere Entscheidung treffen kann.

Eine menschliche Entscheidung hat gegenüber einer computerisierten Entscheidung Vorteile und Nachteile:

Menschliche Entscheidungen sind höchst komplex, abhängig vom Menschen und unterliegen daher einer Schwankung und Toleranz. Sie sind, gesehen von der Komplexität, relativ schnell, sind aber nicht zu 100% wiederholbar.

Im Gegensatz dazu haben programmierte Entscheidungen starre Grenzen, sind beliebig wiederholbar, haben geringe Komplexität, sind aber schneller.

Ein Ausweg wäre, Fuzzy-Logik zu implementieren.

Bedingt durch die beschränkte Geschwindigkeit beim optischen Vergleich durch den Menschen musste eine Selektion erfolgen, in der Art, dass nicht alle möglichen Kombinationen untersucht werden, sondern nur z.B. im 24h-Abstand +/-10 Min. betrachtet wird. Dadurch reduziert sich die Anzahl der Entscheidungen beträchtlich. Ebenso werden die Samples (Stichprobe) nicht überlappend genommen.
Wir nehmen an, dass durch das nicht-überlappende Betrachten der Stichproben möglicherweise ähnliche Histogramme übersehen werden.

Diese Situation führte uns zu der Überlegung, den Entscheidungsprozeß mittels eines Programms zu automatisieren, um wiederholbare, klarere und umfangreichere (vollständigere) Ergebnisse zu erhalten.

4.5.2. Anforderungen bei der Erstellung von Programmen in der Forschung

Bei der Erstellung eines Computerprogramms existiert am Anfang oft nur eine Idee - eine Vision - und oft ist es nicht möglich, den Analyseprozeß klar und eindeutig zu beschreiben. Dadurch entstehen dann so genannte "Spaghetti"-Programme, dh. sie wachsen mehr oder weniger wild ohne klare Strukturen. Mit der Zeit kommen neue Ideen dazu und werden eingebaut und dadurch wird ein solches Programm sehr unübersichtlich und versteckte Fehler sind nur äußerst schwer zu finden. Auch sind Erweiterungen immer schwieriger einzubauen. Somit ist es notwendig, das Programm von Zeit zu Zeit einem Redesign zu unterziehen. Erschwerend kommt hinzu, dass bei der heutigen visuellen Programmierung zwei Bereiche zu handhaben sind:
  1. Die visuelle Bedienoberfläche. Hier sind die Eingaben und Einstellungen allgemein und gegeneinander so abzusichern und einer Gültigkeitsüberprüfung zu unterziehen, damit keine undefinierten Programmzustände auftreten und Fehlbedienungen vermieden werden können. Die Aktionen und ihre Abhängigkeiten sowie die, den Analyseablauf beeinflussenden Faktoren sind zu koordinieren. Ein sehr hoher "mechanischer" Zeitaufwand ist hier erforderlich.
  2. Die Analysemethode (Mathematik, Algorithmik) stellt ihre Anforderungen wegen der begrenzten Verarbeitungsgeschwindigkeit des Computersystems. Hier wird die Zeit eher für Überlegungen über die Methode und ihre optimale Realisierung im Programm benötigt.
  3. Kommt der Zeitaufwand hinzu, der für die Interpretation der Ergebnisse und der Entwicklung neuer Strategien benötigt wird.

4.5.3. Grundlagen

Es gilt, die herkömmliche Ansicht, dass Rauschen statistisch gesehen zufällig sei zu hinterfragen und zu zeigen, dass sehr wohl Strukturen im Rauschen vorhanden sind. Diese Strukturen im Rauschen sind aber, falls sie vorhanden sind, derart verschleiert, dass es spezifische Methoden erfordert, diese Strukturen darzustellen und erkennen zu können.
Bis jetzt sind wir nicht in der Lage, mittels statistischer oder anderer mathematischer Verfahren, die im Zeit-/Frequenz-Bereich eine Analyse vornehmen, zu einem brauchbaren Ergebnis zu kommen. Es treten zwar optische Ergebnisse zutage, aber es ist immer noch ein Rauschen.

Bei der Analyse von Messreihen, bestehend aus diskreten Messwerten, ist die Größe der Stichprobe von entscheidender Bedeutung. Wenn sie zu klein ist verdeckt die Unregelmäßigkeit der Daten die Struktur und dies wird als Störung sichtbar. Ebenso ist es notwendig zu erkennen, dass sich bei steigender Anzahl der betrachteten Werte eine Gleichverteilung bzw. Gaußverteilung einstellt und den Effekt verdeckt.

4.5.4. Das Verfahren

Die Daten (Messwerte) liegen als Samples vor, dh. zeitdiskrete Werte in regelmäßigen, konstanten Zeitabständen (Frequenz). Allgemein gesagt: Ereignisse pro Zeiteinheit.

Aus dieser Gesamtheit der Daten werden eine bestimmte Anzahl aufeinander folgender Samples in der Art betrachtet, dass daraus statistische Kennwerte gebildet werden. Dies sind Mittelwert und Standardabweichung einerseits und nach der Histogrammbildung und Glättung (Smoothing) die Fläche, der Medianwert (Halbflächen-Position) u.a. Diese Kennwerte werden einerseits in Bezug zu den Kennwerten der Gesamtheit gebracht und andererseits dienen sie dazu, die Samples untereinander zu vergleichen.

Download von "wzhisto.zip" Diese kurze PowerPoint  Präsentation zeigt den genauen Vorgang der überlappenden Histogrammbildung aus den Samplewerten und den anschließenden Vergleich der Histogrammformen

Der erste Ansatz ist der, ein Programm zu entwickeln, welches die menschliche Entscheidung nachahmt.
Wegen der Komplexität der menschlichen Entscheidung ist die Umsetzung dementsprechend schwierig. Es könnten zwar Verfahren aus der Mustererkennung verwendet werden, doch wurde versucht, für die ersten Schritte einfachere Methoden zu verwenden.

Hierbei war es zuerst erforderlich, die Histogrammbildung in gleicher Art und Weise nachzuvollziehen, wie es ja bereits in Shnoll's Histogramm Manager erfolgt. Trotz fehlender Informationen konnte dieser erste Schritt so realisiert werden, dass wir zu den gleichen Histogrammen gekommen sind. Ein entsprechendes Programm ist zum Download bereitgestellt.
 
Download von "wzhm21.zip"
Histogramm Manager V2.1 von Wolfgang Zelinka
Einfach aufgebauter Histogramm Manager zum manuellen Vergleich von Histogrammformen
Es können direkt die Rohdaten aus "zyklen1.zip", "zyklen2.zip", "zyklen3.zip" und "zyklen4.zip" betrachtet werden.

Die dabei einzustellenden Parameter sind: Stichprobenanzahl (Samples) und Smoothing-Anzahl. Damit kann untersucht werden, wie diese beiden Parameter die Form des Histogramms beeinflussen. Weiters können dann zwei Histogramme miteinander verglichen werden.

Was zeigen diese Histogramme eigentlich ?

Die geglätteten Histogramme zeigen die lokale Dichteverteilung der Messwerte. Durch das Glätten (Smoothing) werden die Histogramme besser für den Menschen vergleichbar und möglicherweise erleichtert es auch den Vergleich per Programm.

Was heißt: "Histogramme sind ähnlich" ?

Zwei identische Histogramme haben unabhängig von ihrer Form/Struktur eine Flächendifferenz von 0. Wird nun die Stichprobe um 1 Sample verschoben, so fällt eines weg und ein neues kommt dazu. Der Großteil der Samples bleibt aber gleich. Daraus ergibt sich, dass das Histogramm nur geringfügig verändert wird. Dies wirkt sich in einer berechenbaren Flächendifferenz>0 aus. Das verstehen wir unter einer "Overlap"-Analyse.
Bei weiteren Verschiebungen wird der Wert ständig zunehmen solange bis um eine Stichprobenanzahl verschoben wurde und kein einziges Sample aus der Anfangsprobe mehr enthalten ist. Dieser Bereich wurde bisher nicht betrachtet, da Shnoll ja nicht-überlappend analysiert.


Die Flächendifferenz ist grundsätzlich kein ausreichendes Kriterium, um ähnliche Histogramme zu klassifizieren und es gilt daher, zu folgenden Statements eine Aussage zu treffen:
Wie sich zeigte, ist die Art der Berechnung der Differenzfläche nicht von ausschlaggebender Bedeutung und daher kann die einfachste und schnellste Art gewählt werden.

Wir haben bei einem Histogramm drei Parameter:
  1. Die Position entspricht dem lokalen Mittelwert der Messwerte,
  2. Die Breite entspricht der Amplitude der Messwerte und kann auch durch den Effektivwert (Standardabweichung) beschrieben werden,
  3. Die Höhe ist von der Anzahl der Messwerte und deren Dichteverteilung abhängig.
Es ist anzunehmen, dass für jeden dieser drei Parameter ein optimaler Wert existiert, der ein Minimum an Flächendifferenz ergibt. Dabei muss der Rechenaufwand beachtet werden, um diese Aufgabe zu lösen. Es ist auch möglich, dass bei der Variation dieser drei Parameter lokale Minima auftreten. Daher müssten man alle n³ Kombinationen berechnen.
Es muss nun nach Kennwerten gesucht werden, die eine schnellere Lösung bringen und zumindest in die Nähe des absoluten Minimums (=Optimum) führen.

Weiters wird ein Schwellwert der Flächendifferenz für die Entscheidung eingeführt, wann ein Histogramm als ähnlich gezählt wird. Dies entspricht ja auch dem menschlichen Entscheidungsprozeß. Möglicherweise muss dieser "harte" Schwellwert noch "aufgeweicht" werden (Fuzzy-Logik).

4.5.5. Vorgaben und Ergebnisse

Ausgehend von den Forschungen von Shnoll (siehe Vortrag an der Donau Uni Krems) ergab sich für unsere Arbeit folgender Ablauf:

1. Reproduktion - Wiederholbarkeit
Als erster Schritt sollte das Verfahren nach Shnoll mit eigenen, unterschiedlichen Daten getestet werden und es sollte auch zu den gleichen Ergebnissen führen. Dies wurde bereits erfolgreich von Harald Chmela durchgeführt und durch Shnoll auch bestätigt.

2. Verifikation - Absicherung der Ergebnisse
Als zweiten Schritt wollen wir die recht zeitaufwändige menschliche Vergleichsarbeit ersetzen, da diese sehr von der Person abhängt, die die Analyse durchführt und nicht zu 100% wiederholbar ist. Wobei auch im Vordergrund stand, die händischen Ergebnisse durch ein Programm zu bestätigen.

3. Expansion  - Erweiterung der Sicht
Die beiden ersten Schritte konnten parallel durchgeführt werden. Aber erst wenn das Programm einigermaßen brauchbare Ergebnisse liefert kann der dritte Schritt in Angriff genommen werden.
Hier wollen wir die Auswertung hinsichtlich der zeitlichen Auflösung und der bisher unbetrachteten Bereiche erweitern. Diese Zwischenbereiche wurden mittels der händischen Auswertung bisher nur wenig betrachtet und es ist nicht auszuschließen, dass bei einer höheren zeitlichen Auflösung auch in diesen Bereichen signifikante Häufungen auftreten und noch andere Rhythmiken neben den 24h u.a. existieren.

Im gegenwärtigen Stadium unserer Analysen kann unter bestimmten Voraussetzungen eine Häufung bei ca.12h festgestellt werden, was aber noch nicht händisch überprüft wurde. Die händisch ausgewertete 24h-Häufung, speziell mit den gespiegelten Histogrammen, konnte bisher nicht bestätigt werden.

Dipl.Päd. Ing. Wolfgang Zelinka, Mai 2006

5.    Mögliche Anwendungen

Der kosmologische, wie auch bewusstseinsmäßige Einfluss auf physikalische Zufallsgeneratoren könnte der Grundstein für eine ganz neue Art von Technologie sein. Wie bei der Entwicklung jeder neuen Technologie müssen zuvor natürlich die Grundlagen viel tiefer erforscht werden. Aus dem bisher bekannten soll hier aber trotzdem ein kleiner Ausblick auf mögliche Anwendungen gegeben werden.

5.1.    Datenübertragung

Der beobachtete Effekt weist alle Grundvoraussetzungen auf, die für eine Datenübertragung notwendig sind. Zum einen hat er eine Richtwirkung, die es ermöglicht, Sender und Empfänger aufeinander auszurichten und zum anderen kann er beim Empfänger eine Veränderung hervorrufen, die ausgewertet werden kann.
Was bis jetzt noch fehlt, ist eine Möglichkeit, den Einfluss aktiv zu erzeugen und kontrollieren zu können. Wenn das gelingt, kann damit eine Datenübertragungstrecke aufgebaut werden.

Eine solche Strecke würde aus einem Sender bestehen, der den Einfluss in Abhängigkeit von den zu übertragenden Nutzdaten aktiv erzeugt und auf den Empfänger richtet.
Der Empfänger besteht im Wesentlichen aus einem Rauschgenerator mit nach geschalteter Auswertung. Der Rauschgenerator reagiert auf den Einfluss und verändert z.B. die Häufigkeitsverteilung seiner Amplitudenwerte in Abhängigkeit von den gesendeten Nutzdaten. Die Auswertung kann dies erkennen und eine Zuordnung der Histogrammformen zu binären Zuständen treffen. Somit lässt sich der zu übertragende Datenstrom aus dem Rauschen rekonstruieren.

5.2.    Beeinflussung von Entropie

Bereits bei der Definition eines Rauschgenerators unter Punkt 3 stießen wir auf den thermodynamischen Begriff der Entropie, der vor allem in der Physik Verwendung findet. Unter der Betrachtung, dass Rauschen hauptsächlich bei entropischen Vorgängen entsteht, lässt sich eine weitere mögliche Anwendung von kontrollierbaren Rauschprozessen ableiten.
Wenn es nämlich dem aktiv erzeugten Einfluss möglich ist, auch auf thermodynamische Systeme wirken zu können, dann kann das entropische Verhalten eines Systems beeinflusst werden und es verhält sich dann nicht mehr vollständig chaotisch. Denkbar wäre z.B. durch gezielte Beeinflussung der Entropie innerhalb eines Systems die Temperaturverteilung so zu verschieben, damit das entstehende Temperaturgefälle nutzbar wird. Somit könnte Energie aus der Umgebungswärme ausgekoppelt werden.

Das führt uns direkt zu dem großen Bereich der Freien Energieforschung, die ihr Hauptaugenmerk auf die Grundgesetze der Thermodynamik richtet.
Über die Kopplung an chaotische Prozesse lässt sich vielleicht auch die seltsame Funktion von vielen Geräten auf dem Sektor der Freien Energie erklären. Denn all zu oft wird berichtet, dass die Geräte als Prototyp zwar einwandfrei funktionierten, bei sauberem Aufbau allerdings keine Effekte mehr zeigten. Wenn es notwendig ist, dass Rauschprozesse in die Maschinen einkoppeln können, so bieten technische Unzulänglichkeiten, wie Unwuchten oder unkontrollierte Entladungen natürlich die beste Grundlage, um den Zufall in das System herein zu holen. Wenn ein Fachmann dann das Gerät „verbessert“ besteht diese Möglichkeit nicht mehr und die Funktionalität geht verloren.

5.3.    Makroskopische Quantencomputer

Mit der heute üblichen Technik werden Quantencomputer hautsächlich im mikroskopischen Bereich gebaut. Als Träger der Quanteninformation dienen dabei einzelne Atome oder im besten Fall Moleküle, die naturgemäß sehr leicht ihren Zustand ändern können und somit sehr anfällig für Störungen sind.

Das zufällige Verhalten beim Auslesen eines Quantenregisters könnte prinzipiell sehr leicht durch Rauschgeneratoren ersetzt werden, wobei aber die Verschränkung zwischen den einzelnen Quantenzuständen nicht mehr gegeben ist.
Wenn es gelingt, durch einen aktiv erzeugten Einfluss auf Rauschgeneratoren ihre Zustände miteinander zu verkoppeln, wäre es möglich Quantencomputer auf makroskopischer Ebene zu bauen. Dazu wäre es nötig, den Einfluss so selektiv zu erzeugen, dass er nur auf bestimmte Rauschgeneratoren wirkt und ihre Quantenzustände aneinander koppelt. Für eine Speicherung von Informationen wäre es weiters noch wünschenswert, dass auch nach dem Abschalten der Beeinflussung zumindest für einen begrenzten Zeitraum eine Veränderung im Rauschen zurückbleibt.
Nach diesem Prinzip wären Quantencomputer mit einer sehr gut beherrschbaren Technologie zu bauen und vor allem auch mit einer weitaus größeren Bitbreite zu realisieren, die sie für die Lösung von realistischen Aufgaben, wie etwa der Faktorisierung nach Punkt 2.5.4 interessant macht.

5.4.    Alternative Medizin

Vor allem im alternativmedizinischen Bereich der Radionik finden sich viele Geräte, die unter dem Schlagwort der Quantenphysik beworben werden. In den meisten Fällen wird dort ebenfalls mit Rauschgeneratoren als Koppelelement zur Quantenwelt gearbeitet.
Als Beispiele aus diesem Bereich seien hier zum einen das Quantec Radionik System und zum anderen das Quint System genant, weil diese beiden Prinzipien zwei mögliche Wege aufzeigen, wie man sich dem Thema nähern kann.

Beim Quantec Radionik System der Firma m-tec stellt ein Rauschgenerator die Kopplung zum Patienten her. Über die Steuerung eines Computerprogramms mit den Zufallsdaten wird versucht, die für den Patienten relevanten Medikamente und Behandlungsmethoden zu finden. Bei der anschließenden Behandlung wird die Verschränkung des Patienten mit Quantenzuständen im Rauschen dazu ausgenutzt, um eine Kopplung mit dem Patienten herzustellen und Information zu übertragen

Das Quit System der Firma Quintsysteme für holopathische Medizin geht den aktiven Weg der Beeinflussung. Zuerst werden von verschieden Medikamenten die Rauschmuster aufgezeichnet und abgespeichert. Über Magnetspulen wird dem Patienten dann das entsprechende Rauschsignal appliziert. Um die Reaktion des Patienten auf die Behandlung zu beurteilen, wird eine Messung des Hautwiderstandes durchgeführt.

5.5.    Morphogenetisches Feld

Nach den Experimenten der Princeton Universität aus Punkt 4.2 kann man davon ausgehen, dass ein Morphogenetisches Feld existiert, welches in der Lage ist, eine Verbindung von Menschen oder Lebewesen zu einem physikalischen Rauschgenerator und so letztlich zu einer Maschine zu schaffen. Somit ergibt sich für Maschinen der interessante Fall, nicht nur mit künstlich programmierter Intelligent arbeiten zu müssen, sondern auf ein echtes, globales Bewusstsein zurückgreifen zu können. Es liegt nahe, dieses Bewusstsein für die Lösung von Aufgabenstellungen heranzuziehen.

Dabei muss letztlich immer ein Rauschgenerator die Kopplung zu dem Morphogenetischen Feld herstellen. Wird ein Computer als Maschine bei diesem Versuch benutzt, so sind bei der Programmierung einige wichtige Punkte zu beachten, die den üblichen Programmalgorithmen widersprechen.
  1. Das Programm muss mit Zufallszahlen von einer echten physikalischen Quelle arbeiten.
  2. Es muss eine Schnittstelle von einem echten physikalischen Zufallsgenerator zum Programm geben.
  3. Es darf auf keinen Fall ein arithmetischer Pseudozufallsgenerator benutzt werden.
  4. Es muss eine sinnvolle Aufgabenstellung im Programm formuliert werden, für die es eine Lösung gibt.
  5. Es darf kein Algorithmus programmiert werden, der die Aufgabenstellung innerhalb eines rein arithmetischen Ablaufes lösen könnte.
  6. Mit Hilfe der physikalischen Zufallszahlen muss eine Lösung des Problems gefunden werden.
Wenn diese Bedingungen erfüllt sind, dann kann ein interessanter Effekt beobachtet werden: Das Morphogenetische Feld „lernt“ mit der Zeit den Lösungsweg. Bei mehreren hintereinander durchgeführten Versuchen, nimmt die Lösungsgeschwindigkeit zu. Erst wenn eine längere Pause eingelegt wird, ist für die erste Lösung wieder eine längere Zeit erforderlich.

Daraus kann man im Sinne einer allumfassenden Wirkung des Morphogenetischen Feldes ein ganz anderes Prinzip einer Datenübertragung ableiten.

Wenn der Rechner A an der Lösung einer Aufgabe arbeitet, so wird er im unbeeinflussten Fall zunächst sehr lange brauchen und sich im Laufe der Zeit auf eine bestimmte Lösungszeit einpendeln.
Wird nun ein zweiter Rechner mit der Lösung der gleichen Aufgabe betraut, so wird eine zusätzliche Information in das Morphogenetische Feld eingekoppelt werden, die zur Lösung der Aufgabe beiträgt. Das bedeutet für den Rechner A, dass er die Lösung für das Problem noch schneller finden wird, wenn der Rechner B zur gleichen Zeit an der gleichen Aufgabe arbeitet.
Über ein- und ausschalten der Lösungssuche auf dem Rechner B kann somit eine Modulation der Lösungszeit auf dem Rechner A hervorgerufen werden, woraus eine Datenübertragung abgeleitet werden kann.

Wichtig dabei ist, dass auf beiden Rechnern immer die gleiche Aufgabenstellung benutzt wird. Die Aufgabe kann als eine Art Schlüssel für die Kontaktaufnahme der beiden Rechner angesehen werden. Wird der Rechner B mit einer anderen Aufgabe betraut, so wird keine Beeinflussung des Rechners A erfolgen.

Über die Wahl von hinreichend unterschiedlichen Aufgabenstellungen können so beliebig viele Übertragungswege innerhalb des Morphogenetischen Feldes geschaffen werden.

6.    Schlusswort

Auf unserem Streifzug durch die Welt der Quanten sind wir Phänomenen begegnet, die nach der gängigen Lehrmeinung dem puren Zufall unterliegen und aufgrund ihres scheinbar chaotischen Verhaltens bisher nicht ausreichend genau untersucht wurden.
Viele in der Signalverarbeitung übliche Analyseverfahren sind nur sehr bedingt zur Analyse von Rauschen zu verwenden und können nicht die tiefere Struktur eines zufälligen Signals sichtbar machen.

Bei der Wahl des richtigen Analyseverfahrens zeigte sich, dass eine physikalische Beeinflussung von Zufallsprozessen existiert, die auf einem bisher noch unbekannten Prinzip beruhen muss.

Sowohl die Beeinflussung durch die Rotation der Erde, als auch die Beeinflussung durch das menschliche Bewusstsein weisen darauf hin, dass über Rauschprozesse eine Kopplung zu einem noch völlig unerforschten Bereich besteht.

Durch einige Grundlagenversuche konnte ansatzweise gezeigt werden, wie sich die beobachteten Effekte auf das Rauschsignal auswirken. Viele weitere Untersuchungen sind noch nötig, um die genaue Quelle und die Wirkungsweise des Effektes zu erforschen.

Dieser sehr interessante Forschungsbereich könnte die Grundlage einer neuen Technologie sein, die Quanteneffekte zur physikalischen Realität werden lässt und die uns scheinbar chaotische Prozesse in einer Weise nutzbar macht, die über Zufall und Chaos weit hinausgeht.


Ing. Harald Chmela, Mai 2006

Physikseite