Ausgehend vom Shannon-Wiener-Zugang zur mathematischen Informationstheorie beginnt das Buch mit einer Abgrenzung der Begriffe Nachricht und Information und der axiomatischen Zuordnung einer Informationsmenge zu einer Wahrscheinlichkeit. Im zweiten Teil werden abzählbare Wahrscheinlichkeitsräume untersucht, deren mittlere Informationsmenge zur Definition der Shannon-Entropie führt; dabei werden drei klassische Anwendungen der Shannon-Entropie in der statistischen Physik, der mathematischen Statistik und der Nachrichtentechnik vorgestellt, und es wird ein erster Einblick in den Bereich Quanteninformation gegeben. Der dritte Teil behandelt die informationstheoretische Analyse dynamischer Systeme.
Das Buch baut auf Bachelor-Wissen auf und legt großen Wert auf exakte Beweisführung.
Reihe
Auflage
Sprache
Verlagsort
Verlagsgruppe
Zielgruppe
Für Beruf und Forschung
Graduate
Illustrationen
26
26 s/w Abbildungen
XV, 160 S. 26 Abb.
Maße
Höhe: 240 mm
Breite: 168 mm
Dicke: 10 mm
Gewicht
ISBN-13
978-3-662-46381-9 (9783662463819)
DOI
10.1007/978-3-662-46382-6
Schweitzer Klassifikation
Prof. Dr. Dr. Stefan Schäffler, Universität der Bundeswehr München, Fakultät für Elektrotechnik und Informationstechnik, Lehrstuhl für Mathematik und Operations Research.
Einleitung.- Symbole.- Abbildungsverzeichnis.- Teil I Grundlagen. Nachricht und Information.- Information udn Zufall.- Teil II Abzählbare Systeme. Die Entropie.- Das Maximum Entropie Prinzip.- Bedingte Wahrscheinlichkeiten.- Quanteninformation.- Teil III Allgemeine Systeme.- Die Entropie von Partitionen.- Stationäre Informationsquellen.- Dichtefunktionen und Entropie.- Bedingte Erwartungen.- Literatur.- Index.