2013 | OriginalPaper | Buchkapitel
Algorithmische Informationstheorie
verfasst von : Prof. Dr. Dirk W. Hoffmann
Erschienen in: Grenzen der Mathematik
Verlag: Springer Berlin Heidelberg
Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.
Wählen Sie Textabschnitte aus um mit Künstlicher Intelligenz passenden Patente zu finden. powered by
Markieren Sie Textabschnitte, um KI-gestützt weitere passende Inhalte zu finden. powered by
In Kapitel 5 haben wir uns ausführlich mit der Funktionsweise von Turing-Maschinen beschäftigt und dabei zwei wichtige Beobachtungen gemacht: Einerseits können wir Turing-Maschinen dazu verwenden, um Zeichensequenzen zu generieren. Andererseits können wir sie wie die Programme einer beliebigen Programmiersprache behandeln und somit selbst als Zeichensequenzen auffassen. In diesem Abschnitt werden wir diese Beziehung verallgemeinern und eine Zeichensequenz
s
mit dem kürzesten
Programm
in Bezug setzen, das
s
erzeugt. Auf diese Weise wird es uns gelingen, den
Informationsgehalt
oder die
Komplexität
einer endlich langen oder unendlich langen Zeichenkette exakt zu messen. Die ersten Untersuchungen dieser Art wurden gegen Ende der Sechzigerjahre von Ray Solomonoff, Andrej Kolmogorov und Gregory Chaitin durchgeführt. Aus diesen Forschungsarbeiten hat sich eine neue Theorie der Information entwickelt, die wir heute als
algorithmische Informationstheorie
bezeichnen.