Information ist Energie
Die physikalische Basis von Information und Bewusstsein
- 2026
- Buch
- Verfasst von
- Lienhard Pagel
- Verlag
- Springer Fachmedien Wiesbaden
Über dieses Buch
Ein objektiver, dynamischer und physikalisch begründeter Informationsbegriff wird ausgehend vom Shannonschen Entropiebegriff erarbeitet und auf die Informationstechnik und die Thermodynamik angewandt. Die Begründung eines Informationserhaltungssatzes erhält praktische Bedeutung in der Informationstechnik, insbesondere im Bereich de Photonik und des Quantencomputing. Die unbedingte Dynamik von Information und deren Objektivität werden kritisch untersucht und sind die Grundlagen für das Verständnis von Bewusstsein. Ausgehend von künstlicher Intelligenz werden Wege zum künstlichen Bewusstsein gezeigt.
Inhaltsverzeichnis
-
Frontmatter
-
1. Der Informationsbegriff – eine Einführung
Lienhard PagelDieses Kapitel führt in die vielschichtige Definition des Informationsbegriffs ein und zeigt auf, warum eine einheitliche Interpretation in Wissenschaft und Praxis bisher fehlt. Es werden die unterschiedlichen Perspektiven aus Informatik, Informationstechnik, Physik, Biologie und Philosophie gegenübergestellt und Defizite in der bestehenden Begriffsverwendung aufgezeigt. Ein zentraler Fokus liegt auf der Frage, wie Information als dynamische und messbare Größe verstanden werden kann – konkret als Energie. Der Text beleuchtet die historische Entwicklung des Begriffs, beginnend mit der lateinischen Wurzel „informatio“, und analysiert die Rolle der Mikroelektronik und künstlichen Intelligenz in der modernen Informationsgesellschaft. Besonders spannend ist die Diskussion um die Verbindung von Information und Energie, die durch thermodynamische Prinzipien und quantenmechanische Überlegungen untermauert wird. Zudem wird der Einfluss der Informationstechnik auf menschliches Denken und gesellschaftliche Strukturen thematisiert, etwa durch die zunehmende Automatisierung kognitiver Prozesse. Abschließend wird ein neuer, physikalisch fundierter Ansatz zur Definition von Information vorgestellt, der die Brücke zwischen Naturwissenschaften und Technik schlägt und gleichzeitig philosophische Fragen aufwirft.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDer Begriff ”Information“ wird im Alltag und in den Wissenschaften häufig verwendet. Dessen Interpretation ist jedoch nicht einheitlich. Ausgehend von unterschiedlichen Definitionen und deren Interpretationen von ”Information“ in den Fachgebieten der Informatik, der Informationstechnik, der Physik, Biologie und der Philosophie werden Defizite sichtbar gemacht. -
2. Information – physikalisch und dynamisch begründet
Lienhard PagelDieses Kapitel führt einen revolutionären, physikalisch begründeten Informationsbegriff ein, der Information als dynamische Größe definiert – untrennbar verbunden mit Energie und Zeit. Zunächst wird der Unterschied zwischen subjektiven und objektiven Informationskonzepten diskutiert und gezeigt, warum ein rein physikalischer Ansatz notwendig ist. Im Zentrum steht die Analyse der Informationsübertragung, die stets mit Energieflüssen verbunden ist und quantenmechanischen Grenzen unterliegt. Der Autor erläutert, warum Information als Erhaltungsgröße existiert und wie der Erhaltungssatz der dynamischen Information mit dem Energieerhaltungssatz verknüpft ist. Ein zentraler Schwerpunkt liegt auf der Definition des dynamischen Bits als kleinste Informationseinheit, die sowohl als statistische Größe (Entropie) als auch als physikalisches Objekt (Energieportion) verstanden werden kann. Die Quantenmechanik setzt dabei klare Grenzen für die Übertragbarkeit und Messbarkeit von Information, etwa durch die Heisenbergsche Unbestimmtheitsrelation. Praktische Beispiele aus der Computertechnik und Quantenphysik veranschaulichen, wie Information in realen Systemen übertragen und verarbeitet wird. Abschließend wird die Bedeutung dieser Erkenntnisse für zukünftige Technologien wie Quantencomputer und hochpräzise Messverfahren diskutiert. Leser erfahren, warum Information nicht nur eine abstrakte Größe ist, sondern als fundamentale physikalische Entität betrachtet werden muss – mit weitreichenden Konsequenzen für Naturwissenschaft und Technik.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungIm Mittelpunkt dieses Kapitels steht die Definition eines dynamischen und objektiven Informationsbegriffes. Einleitend wird die Frage von Objekt und Subjekt im Zusammenhang mit dem Informationsbegriff erörtert. Eine Analyse der Informations übertragung wird zeigen, dass Information immer in Bewegung ist und auch immer mit Energie verbunden ist. Die Quantenmechanik setzt allerdings Grenzen für den Energieeinsatz bei der Informationsübertragung. In einem ersten Schritt wird eine phänomenologische Begründung für einen dynamischen und objektiven Informationsbegriff erarbeitet. Zur Abgrenzung gegenüber anderen Informationsbegriffen wird der Begriff ”dynamische Information“ eingeführt. Anschließend werden die Eigenschaften der dynamischen Information aufgezeigt. Zentral ist der Erhaltungssatz der dynamischen Information, der eng mit dem Energieerhaltungssatz verbunden ist. -
3. Vergleichende Betrachtung zum Informationsbegriff
Lienhard PagelDieses Kapitel bietet eine strukturierte Übersicht über die wichtigsten Definitionen und Konzepte des Informationsbegriffs, die in der Wissenschaft diskutiert werden. Im Fokus stehen dabei drei zentrale Ansätze: Zunächst wird SHANNONs klassische Definition der Information als Entropie bzw. als Maß für die Beseitigung von Ungewissheit vorgestellt. Der Text analysiert kritisch, warum dieser Ansatz zwar in der Informationstechnik weit verbreitet ist, aber in der Thermodynamik zu Widersprüchen führt – insbesondere bei der Frage, wie Information mit Energie und Entropieübertragung zusammenhängt. Anschließend wird die dynamische Informationsübertragung eingeführt, die explizit Energie- und Entropieflüsse berücksichtigt und so die thermodynamischen Grenzen der SHANNONschen Theorie überwindet. Ein weiterer Schwerpunkt liegt auf der algorithmischen Informationstheorie, die Information als minimale Programmkomplexität definiert. Hier wird gezeigt, wie dieses Konzept Redundanzen erkennt und sich von probabilistischen Ansätzen unterscheidet – etwa am Beispiel von scheinbar zufälligen, aber deterministisch erzeugten Zeichenfolgen. Abschließend werden die Definitionen von JAGLOM vorgestellt, die Information über bedingte Entropie modellieren und damit die Abhängigkeit zwischen verschiedenen Versuchen beschreiben. Das Kapitel verbindet so klassische informationstheoretische Grundlagen mit modernen physikalischen und algorithmischen Perspektiven und bietet eine fundierte Grundlage für die Bewertung unterschiedlicher Informationskonzepte.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungNachdem das Verhältnis zwischen Information und Energie behandelt worden ist, soll ein kurzer Überblick über die wichtigen bekannten Definitionen und Beschreibungen der Information folgen. Dieser Überblick ist nicht vollständig. Er zeigt aber die verschiedenartigen Herangehensweisen. Gleichzeitig erfolgt ein Vergleich mit dem im Abschnitt 2.4.1 ”Quantenmechanische Grenzen der Informationsübertragung“ Seite 27 vorgestellten dynamischen Informationsbegriff und der Versuch einer Bewertung. Eine ausführliche vergleichende Übersicht über Konzepte zum Informationsbegriff ist bei D. Meyer [72] zu finden. -
4. Entropie und Information
Lienhard PagelDieses Kapitel bietet eine fundierte Einführung in die vielschichtige Bedeutung der Entropie als zentrales Konzept der modernen Wissenschaft. Zunächst wird die Entropie als mathematische Größe eingeführt, die aus der Informationstheorie stammt und dort als SHANNON-Entropie die Unbestimmtheit von Nachrichten beschreibt. Der Text zeigt, wie diese Definition mit der klassischen thermodynamischen Entropie nach BOLTZMANN und GIBBS übereinstimmt und somit eine Brücke zwischen Informationstechnik und Physik schlägt. Ein besonderer Schwerpunkt liegt auf den verschiedenen Varianten der Entropie, darunter die RENYI-Entropie mit ihren Spezialfällen wie HARTLEY-Entropie, SHANNON-Entropie und Korrelationsentropie, die je nach Anwendungsfall unterschiedliche Eigenschaften aufweisen. Im weiteren Verlauf wird die Entropie in der Thermodynamik analysiert, wo sie als Maß für die Anzahl möglicher Mikrozustände eines Systems dient und eng mit Energie und Temperatur verknüpft ist. Anhand einfacher Beispiele wie dem idealen Gas wird verdeutlicht, wie Volumen- und Energieänderungen die Entropie beeinflussen und welche physikalischen Grenzen dabei zu beachten sind. Ein weiterer zentraler Aspekt ist die Rolle der Entropie in der Quantenmechanik, wo sie als VON NEUMANN-Entropie die Unbestimmtheit quantenmechanischer Systeme quantifiziert und in der BRUKNER-ZEILINGER-Information eine spezifische Anwendung findet. Praktische Bezüge werden durch die Diskussion von Entropie-Fluss und dynamischer Information hergestellt, etwa in der Informationsübertragung oder bei reversiblen Computern. Das Kapitel schließt mit einer kritischen Auseinandersetzung mit dem umstrittenen Konzept der Negentropie und zeigt auf, wie Entropie als dynamische Größe in realen Systemen – von klassischen Computern bis zu Quantencomputern – interpretiert werden kann. Leserinnen und Leser gewinnen so ein umfassendes Verständnis dafür, warum Entropie nicht nur ein theoretisches Konstrukt ist, sondern in nahezu allen Bereichen der Naturwissenschaften und Technik eine Schlüsselrolle spielt.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDie Entropie ist für die Informatik und die Informationstechnik eine grundlegende Größe. Sie steht in enger Beziehung zur Information. Oft wird sie auch mit der Information identifiziert. In diesem Kapitel wird die Entropie in Anlehnung an die Shannonsche Definition beschrieben. Die Beziehung zu verwandten Begriffen wird hergestellt. Die Anwendung des Entropiebegriffes in der Thermodynamik, der Quantenmechanik und der Informationstechnik bilden den Hauptteil dieses Kapitels. -
5. Dynamische Information und Thermodynamik
Lienhard PagelZusammenfassungIn diesem Kapitel werden Vorgänge in der Thermodynamik unter dem Aspekt der dynamischen Information betrachtet. Die Thermodynamik ist ein Feld, in dem sich der Informationsbegriff widerspruchslos einpassen muss. Energie und Entropie spielen hier wie in der Informationstechnik eine dominante Rolle. Das Ziel ist die Veranschaulichung des dynamischen Informationsbegriffes innerhalb der Thermodynamik, wobei auch neue Interpretationen von bekannten Tatsachen vorgenommen werden. Es handelt sich hier also nicht um neue Erkenntnisse, sondern um eine Veranschaulichung der dynamischen Information und auch des Entropie-Begriffes. -
6. Irreversible Prozesse und Strukturbildung
Lienhard PagelDieses Kapitel beleuchtet die komplexen Zusammenhänge zwischen irreversiblen Prozessen, Entropie und Strukturbildung in thermodynamischen Systemen und stellt dabei gängige Lehrmeinungen infrage. Im Mittelpunkt steht die kritische Auseinandersetzung mit dem zweiten Hauptsatz der Thermodynamik, insbesondere der Frage, ob Entropie in isolierten Systemen tatsächlich zunimmt oder ob diese Annahme auf unklaren Definitionen beruht. Der Text analysiert die Unterschiede zwischen isolierten, abgeschlossenen und offenen Systemen und zeigt, dass Entropieänderungen stark vom Systemtyp abhängen. Ein zentrales Thema ist die Zeitsymmetrie der fundamentalen physikalischen Gleichungen (z. B. der Schrödinger-Gleichung) im Kontrast zur wahrgenommenen Irreversibilität makroskopischer Prozesse. Hier wird die Rolle des Beobachters und die Definition von „bestimmten Zuständen“ als Schlüssel zur Auflösung dieses scheinbaren Widerspruchs diskutiert. Zudem wird der MAXWELLsche Dämon als Gedankenexperiment herangezogen, um die Grenzen klassischer thermodynamischer Modelle aufzuzeigen und die Bedeutung von Informationsverarbeitung in thermodynamischen Systemen zu betonen. Ein weiterer Schwerpunkt liegt auf der Strukturbildung in offenen Systemen, etwa bei Kristallisationsprozessen oder dissipativen Strukturen, und der Frage, wie Entropieexport zur Entstehung geordneter Strukturen beiträgt. Abschließend wird die Relativität von Ordnung und Entropie diskutiert – etwa am Beispiel von Ordnungsparametern in Phasenübergängen – und gezeigt, dass klassische Intuitionen (z. B. „mehr Entropie = mehr Unordnung“) oft zu kurz greifen. Das Kapitel bietet damit nicht nur eine vertiefte Auseinandersetzung mit thermodynamischen Grundlagen, sondern auch neue Ansätze zur Integration von Informationstheorie und Thermodynamik.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungIrreversible Prozesse sollen nach Auffassung vieler Autoren zu einer Zunahme von Entropie führen. Strukturbildung wird im Allgemeinen mit der Ausbildung von geordneten Zuständen verbunden. Die Entropie sollte sich dann vermindern. Die Entropieänderungen in isolierten, abgeschlossenen und offenen Systemen werden in diesem Kapitel kritisch hinterfragt. Sowohl eine Erhöhung als auch Minderung der Entropie in einem abgeschlossenen System haben Relevanz für das Konzept der dynamischen Information. Durch eine konsequente Anwendung des Entropiebegriffes und des Begriffes des thermodynamischen Gleichgewichtes wird versucht, den Widerspruch zwischen der Zeitsymmetrie der Schrödinger-Gleichung und der Irreversibilität aufzulösen. -
7. Bewusstsein
Lienhard PagelDas Kapitel beleuchtet die komplexen Zusammenhänge zwischen Bewusstsein, Information und Selbstbezug aus technischer, philosophischer und mathematischer Perspektive. Zunächst wird die starke KI-Hypothese untersucht, die die Möglichkeit technischer Systeme mit Bewusstsein postuliert, und mit der Church-Turing-Hypothese verknüpft. Dabei wird deutlich, dass Bewusstsein als eine Eigenschaft informationsverarbeitender Systeme verstanden werden kann, die durch Algorithmen und logische Strukturen realisierbar ist. Ein zentraler Fokus liegt auf dem Selbstbezug als essenzieller Voraussetzung für Bewusstsein, der mathematisch durch Selbstaussagen und Gödels Diagonalisierungsverfahren beschrieben wird. Das Kapitel zeigt, dass Selbstbezug und Widerspruch eng miteinander verknüpft sind und Bewusstsein somit nicht nur als technisches, sondern auch als logisch-mathematisches Phänomen betrachtet werden muss. Abschließend wird diskutiert, inwiefern Bewusstsein an Leben gebunden ist und ob technische Systeme ohne organische Grundlage Bewusstsein entwickeln können. Besonders spannend ist die Frage, ob Bewusstsein messbar oder sogar algorithmisch definierbar ist – ein Thema, das nicht nur für die KI-Forschung, sondern auch für die Philosophie des Geistes von grundlegender Bedeutung ist.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungWelche Verbindung besteht zwischen Bewusstsein und Information? Können Systeme mit Bewusstsein feststellen, dass sie selbst Bewusstsein haben? Ist die dynamische Definition von Information hilfreich beim Zugang zum Verständnis des Bewusstseins? Welche Eigenschaften müssen Systeme mit Bewusstsein haben, welche sind notwendig und welche sind hinreichend? In diesem Kapitel wird der Versuch unternommen, Antworten auf einige dieser grundlegenden Fragen zu finden und verifizierbare Aussagen zu diesem komplexen Thema abzuleiten. Das Thema Bewusstsein soll allerdings nicht umfassend behandelt werden, es sollen einige Aspekte behandelt werden, die im Zusammenhang mit Information stehen. -
8. Astronomie und Kosmologie
Lienhard PagelDas Kapitel beleuchtet die komplexen Zusammenhänge zwischen Information, Energie und der Struktur des Universums. Im Fokus stehen die Herausforderungen, die sich aus der Relativitätstheorie und der Allgemeinen Relativitätstheorie für die Erhaltung von Information ergeben. Ein zentrales Thema ist das Informationsparadoxon Schwarzer Löcher: Wie kann Information, die in ein Schwarzes Loch fällt, erhalten bleiben, obwohl klassische Physik dies zunächst ausschließt? Der Text erklärt, wie Quanteneffekte wie die Hawking-Strahlung und das holographische Prinzip eine Lösung bieten könnten, indem sie Information auf der Oberfläche des Ereignishorizonts speichern. Ein weiterer Schwerpunkt liegt auf den Grenzen der Informationsübertragung im expandierenden Universum. Der Ereignishorizont, der sich durch die kosmische Expansion ständig erweitert, definiert, welche Informationen uns jemals erreichen können. Die Diskussion zeigt, dass Energie- und Informationserhaltung in kosmologischen Maßstäben nicht mehr uneingeschränkt gelten, sondern von der Struktur und Dynamik des Raumes abhängen. Zudem wird die Rolle der kosmischen Inflation erörtert, die nicht nur die Homogenität des Universums erklärt, sondern auch die Synchronisation entfernter Regionen trotz der Endlichkeit der Lichtgeschwindigkeit ermöglicht. Abschließend wird die Entropie Schwarzer Löcher analysiert, die sich als proportional zur Oberfläche des Ereignishorizonts erweist – ein faszinierender Hinweis auf die Verbindung von Thermodynamik und Raumzeitstruktur. Wer dieses Kapitel liest, gewinnt ein tiefes Verständnis dafür, wie moderne Physik die Grenzen der Informationsverarbeitung im Kosmos neu definiert und welche theoretischen Modelle heute diskutiert werden, um diese Paradoxa zu lösen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungIn diesem Kapitel wird der Blick auf kosmische und kosmologische Fragen erweitert. Es werden astronomische und kosmologische Gesichtspunkte behandelt, die einen engen Bezug zur Information haben. Die Energieerhaltung und damit auch die Informationserhaltung sind in relativistischen Systemen wegen der fehlenden Gleichzeitigkeit fraglich. In kosmologischen Größenordnungen sind deshalb Erhaltungssätze kritisch zu betrachten. Der mögliche Informationsverlust beim Sturz von Materie in ein Schwarzes Loch führt zu Diskussionen über die Erhaltung der Information und der Wahrscheinlichkeitsdichte der Wellenfunktion. Der mögliche Verlust von Information bei diesem Vorgang wird diskutiert. -
9. Resümee
Lienhard PagelDas Kapitel entwickelt einen dynamischen Informationsbegriff, der auf der Quantenmechanik und Thermodynamik aufbaut. Es zeigt, wie Information nicht als statische Größe, sondern als zeitabhängiger physikalischer Transferprozess verstanden werden kann. Im Mittelpunkt steht die Definition der dynamischen Information als transferierte Entropie pro Zeiteinheit, die einen Erhaltungssatz erfüllt und eng mit der transferierten Energie verknüpft ist. Anhand von Beispielen aus der Thermodynamik und Informationstechnik wird die Nützlichkeit dieses Ansatzes demonstriert. Besonders relevant ist die Anwendung auf zukünftige Technologien wie Quantencomputing, wo Energieeffizienz und Informationsübertragung eine zentrale Rolle spielen. Zudem wird der Zusammenhang zwischen Information und Bewusstsein diskutiert, da informationsverarbeitende Systeme mit Bewusstsein untrennbar verbunden sind. Das Kapitel zeigt, dass Information und Energie letztlich zwei Perspektiven auf ein und dasselbe physikalische Phänomen darstellen und dass diese Sichtweise gesellschaftliche, physikalische und informationstechnische Implikationen hat. Abschließend wird betont, dass der neue Informationsbegriff in bestehende physikalische Modelle integrierbar ist und neue Forschungsfragen aufwirft, insbesondere zur mathematischen Fundierung und Verallgemeinerung des Konzepts.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungAusgehend von dem erkennbaren Defizit an einem physikalisch begründeten und die Dynamik sowie die Objektivität der Information berücksichtigenden Informationsbegriff wird in diesem Buch ein dynamischer Informationsbegriff physikalisch begründet. Die Einführung dieses Informationsbegriffes erfolgt auf der Grundlage der Quantenmechanik und objektiviert Sender und Empfänger. So wie bisher in der Informationstheorie üblich, spielt die Entropie die zentrale Rolle. -
Backmatter
- Titel
- Information ist Energie
- Verfasst von
-
Lienhard Pagel
- Copyright-Jahr
- 2026
- Electronic ISBN
- 978-3-658-51372-6
- Print ISBN
- 978-3-658-51371-9
- DOI
- https://doi.org/10.1007/978-3-658-51372-6
Die PDF-Dateien dieses Buches wurden vor der Einführung der aktuellen Best Practices für Barrierefreiheit erstellt. Sie unterstützen durchsuchbaren und auswählbaren Text. Sie können Elemente wie beschriebene nicht-textliche Inhalte (Bilder, Grafiken usw.), umfließenden Text oder Bildschirmlesegerätekompatibilität enthalten, müssen dies aber nicht. Für Benutzer mit Barrierefreiheitsanforderungen kann es zu Einschränkungen kommen. Bitte kontaktieren Sie uns unter accessibilitysupport@springernature.com, wenn Sie Hilfe oder ein alternatives Format benötigen.