
Seit Beginn des digitalen Zeitalters (ca. 1970er Jahre) spekulieren theoretische Physiker über einen möglichen Zusammenhang zwischen Information und dem physikalischen Universum. Wenn man bedenkt, dass alle Materie aus Informationen besteht, die den Zustand eines Quantensystems beschreiben (auch bekannt als Quanteninformationen), und dass genetische Informationen in unserer DNA kodiert sind, ist es nicht weit hergeholt zu glauben, dass die physikalische Realität in Form von Daten ausgedrückt werden kann .
Dies hat zu vielen Gedankenexperimenten und Paradoxien geführt, bei denen Forscher versucht haben, die Informationskapazität des Kosmos abzuschätzen. In einer aktuellen Studie hat Dr. Melvin M. Vopson – ein Mathematiker und Senior Lecturer an der Universität Portsmouth – bot neue Schätzungen von wie viele Informationen sind verschlüsselt in der gesamten baryonischen Materie (auch bekannt als gewöhnliche oder „leuchtende“ Materie) im Universum.
Die Studie, die seine Forschungsergebnisse beschreibt, erschien kürzlich in der FachzeitschriftAIP-Fortschritte,eine Veröffentlichung, die von der Amerikanisches Institut für Physik (AIP). Während frühere Schätzungen über die Menge verschlüsselter Informationen im Universum gemacht wurden, verlässt sich Vopson als erster auf die Informationstheorie (IT) – ein Studiengebiet, das sich mit der Übertragung, Verarbeitung, Extraktion und Nutzung von Informationen befasst.

Illustration von Daten aus der Zentralregion der Milchstraße. Bildnachweis: UCLA SETI Group/Yuri Beletsky, Carnegie Las Campanas Observatory
Dieser neuartige Ansatz ermöglichte es ihm, die Fragen zu beantworten, die sich aus der IT ergeben, nämlich: „Warum werden Informationen im Universum gespeichert und wo sind sie?“ und „Wie viele Informationen sind im Universum gespeichert?“ Wie Vopson in einem kürzlich veröffentlichten AIP-Pressemitteilung :
„Die Informationskapazität des Universums ist seit über einem halben Jahrhundert ein Diskussionsthema. Es gab verschiedene Versuche, den Informationsgehalt des Universums abzuschätzen, aber in diesem Artikel beschreibe ich einen einzigartigen Ansatz, der zusätzlich postuliert, wie viel Information in einem einzigen Elementarteilchen komprimiert werden könnte.“
Während ähnliche Forschungen die Möglichkeit untersucht haben, dass Informationen physisch sind und gemessen werden können, blieb die genaue physikalische Bedeutung dieser Beziehung schwer fassbar. In der Hoffnung, diese Frage zu klären, stützte sich Vopson auf die Arbeit des berühmten Mathematikers, Elektroingenieurs und Kryptografen Claude Shannon, der wegen seiner bahnbrechenden Arbeit in der Informationstheorie auch „Vater des digitalen Zeitalters“ genannt wird.
Shannon definierte seine Methode zur Quantifizierung von Informationen in einem Artikel von 1948 mit dem Titel „ Eine mathematische Theorie der Kommunikation “, was zur Annahme des „Bit“ (ein von Shannon eingeführter Begriff) als Maßeinheit führte. Dies war nicht das erste Mal, dass Vopson sich mit IT und physikalisch codierten Daten befasst hat. Zuvor befasste er sich damit, wie die physikalische Natur von Informationen extrapoliert werden kann, um Schätzungen der Datenmenge selbst zu erstellen.
Dies wurde in seinem Papier von 2019 beschrieben: „ DieMasse-Energie-InformationenÄquivalenzprinzip “, das Einsteins Theorien über die Wechselbeziehung von Materie und Energie auf die Daten selbst ausdehnt. In Übereinstimmung mit der IT basierte Vopsons Studie auf dem Prinzip, dass Informationen physisch sind und dass alle physischen Systeme Informationen registrieren können. Er kam zu dem Schluss, dass die Masse eines einzelnen Informationsbits bei Raumtemperatur (300 K) 3,19 × 10 . beträgt-38kg (8.598 x 10-38Pfund).

Quanteninformationen sind eine der Möglichkeiten, das physikalische Universum in Daten auszudrücken.Kredit: University of Nottingham
Vopson führte die Methode von Shannon weiter und stellte fest, dass jedes Elementarteilchen im beobachtbaren Universum das Äquivalent von 1,509 Bit codierter Information hat. „Es ist das erste Mal, dass dieser Ansatz bei der Messung des Informationsgehalts des Universums verwendet wird, und er liefert eine klare numerische Vorhersage“, sagte er. „Auch wenn die numerische Vorhersage nicht ganz genau ist, bietet sie einen potenziellen Weg zu experimentellen Tests.“
Erstens verwendete Vopson die bekannte Eddington-Zahl, die sich auf die Gesamtzahl der Protonen im beobachtbaren Universum bezieht (aktuelle Schätzungen gehen von 1080). Daraus leitete Vopson eine Formel ab, um die Anzahl aller Elementarteilchen im Kosmos zu erhalten. Anschließend passte er seine Schätzungen an, wie viel jedes Teilchen enthalten würde, basierend auf der Temperatur der beobachtbaren Materie (Sterne, Planeten, interstellares Medium usw.).
Daraus berechnete Vopson, dass die Gesamtmenge der codierten Informationen 6×10 . entspricht80Bits. Rechnerisch ausgedrückt entsprechen diese vielen Bits 7,5 × 1059Zettabytes oder 7,5 Oktodezillionen Zettabytes. Vergleichen Sie das mit der Datenmenge, die im Jahr 2020 weltweit produziert wurde – 64,2 Zettabyte. Das ist natürlich ein Unterschied, den man nur als „astronomisch“ bezeichnen kann.
Diese Ergebnisse bauen auf früheren Studien von Vopson auf, der postuliert hat, dass Information der fünfte Aggregatzustand ist (neben fest, flüssig, gasförmig und Plasma) und dass Dunkle Materie selbst Information sein könnte. Sie stimmen auch mit vielen Forschungsarbeiten der letzten Jahre überein, die alle versucht haben, Licht in die Wechselwirkung von Informationen und physikalischen Gesetzen zu bringen.
Dazu gehört, wie Informationen aus einem Schwarzen Loch austreten, bekannt als „Black Hole Information Paradox“ und entsteht dadurch, dass Schwarze Löcher Strahlung emittieren. Dies bedeutet, dass Schwarze Löcher im Laufe der Zeit an Masse verlieren und die Informationen über einfallende Materie nicht bewahren (wie bisher angenommen). Beide Entdeckungen werden Stephen Hawking zugeschrieben, der dieses Phänomen mit dem passenden Namen „ Hawking-Strahlung . '
Dies wirft auch die holographische Theorie auf, einen Grundsatz der Stringtheorie und der Quantengravitation, der spekuliert, dass die physikalische Realität aus Informationen entsteht, wie ein Hologramm aus einem Projektor entsteht. Und es gibt die radikalere Interpretation davon, die als Simulationstheorie bekannt ist, die postuliert, dass das gesamte Universum eine riesige Computersimulation ist, die vielleicht von einer hochentwickelten Spezies erstellt wurde, um uns alle in Schach zu halten (allgemein bekannt als „ Planetariumshypothese .“)
Wie erwartet, wirft diese Theorie einige Probleme auf, beispielsweise wie Antimaterie und Neutrinos in die Gleichung passen. Es macht auch bestimmte Annahmen darüber, wie Informationen in unserem Universum übertragen und gespeichert werden, um konkrete Werte zu erhalten. Dennoch bietet es eine sehr innovative und völlig neue Möglichkeit, den Informationsgehalt des Universums abzuschätzen, von den Elementarteilchen bis hin zur sichtbaren Materie als Ganzes.
In Verbindung mit Vopsons Theorien über Informationen, die den ersten Zustand der Materie (oder der Dunklen Materie selbst) ausmachen, bietet diese Forschung eine Grundlage, auf der zukünftige Studien aufbauen, testen und falsifizieren können. Darüber hinaus umfassen die langfristigen Auswirkungen dieser Forschung eine mögliche Erklärung für die Quantengravitation und Auflösungen verschiedener Paradoxien.
Weiterlesen: AIP , AIP-Fortschritte