Zum Hauptinhalt springen
Dekorationsartikel gehören nicht zum Leistungsumfang.
Einführung in die Informationstheorie
Studienbuch für Mathematiker, Informatiker, Naturwissenschaftler und Ingenieure ab 3. Semester
Taschenbuch von Ernst Henze
Sprache: Deutsch

54,99 €*

inkl. MwSt.

Versandkostenfrei per Post / DHL

Aktuell nicht verfügbar

Kategorien:
Beschreibung
Bezeichnungs-und Darstellungsweise zu ver­ wenden.
Bezeichnungs-und Darstellungsweise zu ver­ wenden.
Inhaltsverzeichnis
1. Einleitung.- 1.1. Ziele der Informationstheorie, Überblick.- 1.2. Mathematische Hilfsmittel.- 2. Die Entropie.- 2.1. Die Entropie eines endlichen Wahrscheinlichkeitsraumes.- 2.2. Der Eindeutigkeitssatz für die Entropie.- 3. Informationsquellen.- 3.1. Grundlegende Definitionen.- 3.2. Stationäre Quellen.- 3.3. Ergodische Quellen.- 3.4. Der Satz von McMillan und die asymptotische Gleichverteilung.- 3.5. Beweis des Satzes von McMillan.- 4. Kanäle.- 4.1. Definition des Kanals, Eigenschaften spezieller Kanäle.- 4.2. Anschluß eines Kanals an die speisende Quelle.- 4.3. Die Transinformation oder die Übertragungsgeschwindigkeit der Information.- 4.4. Die Kanalkapazität oder Durchlaßkapazität.- 4.5. Ein Beispiel für einen Kanal mit Störungen.- 5. Der Satz von Feinstein.- 5.1. Formulierung des Satzes.- 5.2. Ein Hilfssatz.- 5.3. Beweis des Satzes von Feinstein.- 6. Die Sätze von Shannon.- 6.1. Codierungen, Übertrager.- 6.2. Hilfssätze.- 6.3. Der erste Satz von Shannon.- 6.4. Der zweite Satz von Shannon.- 7. Abschließende Bemerkungen.- Literatur.- Sachwortverzeichnis.
Details
Erscheinungsjahr: 1974
Fachbereich: Allgemeines
Genre: Mathematik
Rubrik: Naturwissenschaften & Technik
Medium: Taschenbuch
Reihe: uni-texte
Inhalt: 82 S.
ISBN-13: 9783528130060
ISBN-10: 3528130067
Sprache: Deutsch
Ausstattung / Beilage: Paperback
Einband: Kartoniert / Broschiert
Autor: Henze, Ernst
Auflage: 4. Aufl. 1974
Hersteller: Vieweg & Teubner
Vieweg+Teubner Verlag
uni-texte
Maße: 244 x 170 x 6 mm
Von/Mit: Ernst Henze
Erscheinungsdatum: 01.01.1974
Gewicht: 0,176 kg
Artikel-ID: 105723874
Inhaltsverzeichnis
1. Einleitung.- 1.1. Ziele der Informationstheorie, Überblick.- 1.2. Mathematische Hilfsmittel.- 2. Die Entropie.- 2.1. Die Entropie eines endlichen Wahrscheinlichkeitsraumes.- 2.2. Der Eindeutigkeitssatz für die Entropie.- 3. Informationsquellen.- 3.1. Grundlegende Definitionen.- 3.2. Stationäre Quellen.- 3.3. Ergodische Quellen.- 3.4. Der Satz von McMillan und die asymptotische Gleichverteilung.- 3.5. Beweis des Satzes von McMillan.- 4. Kanäle.- 4.1. Definition des Kanals, Eigenschaften spezieller Kanäle.- 4.2. Anschluß eines Kanals an die speisende Quelle.- 4.3. Die Transinformation oder die Übertragungsgeschwindigkeit der Information.- 4.4. Die Kanalkapazität oder Durchlaßkapazität.- 4.5. Ein Beispiel für einen Kanal mit Störungen.- 5. Der Satz von Feinstein.- 5.1. Formulierung des Satzes.- 5.2. Ein Hilfssatz.- 5.3. Beweis des Satzes von Feinstein.- 6. Die Sätze von Shannon.- 6.1. Codierungen, Übertrager.- 6.2. Hilfssätze.- 6.3. Der erste Satz von Shannon.- 6.4. Der zweite Satz von Shannon.- 7. Abschließende Bemerkungen.- Literatur.- Sachwortverzeichnis.
Details
Erscheinungsjahr: 1974
Fachbereich: Allgemeines
Genre: Mathematik
Rubrik: Naturwissenschaften & Technik
Medium: Taschenbuch
Reihe: uni-texte
Inhalt: 82 S.
ISBN-13: 9783528130060
ISBN-10: 3528130067
Sprache: Deutsch
Ausstattung / Beilage: Paperback
Einband: Kartoniert / Broschiert
Autor: Henze, Ernst
Auflage: 4. Aufl. 1974
Hersteller: Vieweg & Teubner
Vieweg+Teubner Verlag
uni-texte
Maße: 244 x 170 x 6 mm
Von/Mit: Ernst Henze
Erscheinungsdatum: 01.01.1974
Gewicht: 0,176 kg
Artikel-ID: 105723874
Warnhinweis

Ähnliche Produkte

Ähnliche Produkte