Cantitate/Preț
Produs

Übungsaufgaben zur Informationstheorie: Lehrbuch f. Informatiker, Mathematiker u. alle Naturwissenschaftler ab 3. Semester.

Autor Maurice Denis-Papin
de Limba Germană Paperback – 1972

Preț: 26988 lei

Puncte Express: 405

Preț estimativ în valută:
5171 5601$ 4434£

Carte tipărită la comandă

Livrare economică 06-11 mai

Preluare comenzi: 021 569.72.76

Specificații

ISBN-13: 9783528035280
ISBN-10: 3528035285
Pagini: 212
Ilustrații: 200 S.
Dimensiuni: 155 x 235 x 17 mm
Greutate: 0.3 kg
Ediția:1972
Editura: Vieweg+Teubner Verlag
Colecția Vieweg+Teubner Verlag
Locul publicării:Wiesbaden, Germany

Public țintă

Research

Cuprins

1. Zahlensysteme und Kombinatorik.- 1.1. Zahlensysteme.- 1.1.1. Zahlendarstellungen.- 1.1.2. Darstellung einer rationalen Zahl in einem System mit der Basis x.- 1.1.3. Umwandlung der Basis.- 1.1.4. Binärsysteme und Systeme, die sich darauf zurückführen lassen.- 1.2. Kombinatorik.- 1.2.1. Permutationen.- 1.2.2. Variationen ohne Wiederholung.- 1.2.3. Kombinationen.- 1.2.4. Permutationen mit Wiederholungen.- 1.2.5. Kombinationen mit Wiederholungen.- 2. Wahrscheinlichkeitsrechnung.- 2.1. Allgemeines.- 2.2. Bedingte Wahrscheinlichkeiten.- 2.3. Der Satz von Bayes.- 2.4. Zufallsvariable.- 3. Statistik.- 3.1. Grundbegriffe.- 3.2. Graphische Darstellungen.- 3.2.1. Stabdiagramme.- 3.2.2. Histogramme.- 3.2.3. Diagramm der kumulativen Häufigkeiten.- 3.3. Charakteristische Parameter einer Häufigkeitsverteilung.- 3.3.1. Lageparameter.- 3.3.2. Streuungsparameter.- 3.3.3. Berechnung von Mittelwert und Varianz 5.- 3.4. Gesetz der Statistik.- 3.4.1. Relative Häufigkeit und Wahrscheinlichkeit.- 3.4.2. Statistische Gesetzmäßigkeiten und ihre Interpretation.- 3.4.3. Charakteristische Parameter einer Verteilung.- 3.4.4. Wichtige Wahrscheinlichkeitsverteilungen.- 3.4.5. Statistische Interpretation.- 4. Informationstheorie.- 4.1. Definitionen.- 4.2. Abzählung der verschiedenen möglichen Nachrichten.- 4.2.1. Das Exponentialgesetz für die Anzahl der verschiedenen möglichen Nachrichten.- 4.2.2. Die Informationsrate.- 4.2.3. Nachrichten einer Informationsquelle mit stationären statistischen Eigenschaften.- 4.3. Die Entropie.- 4.3.1. Einführung des Begriffes „Entropie“.- 4.3.2. Eigenschaften der Entropie.- 4.3.3. Kopplung und bedingte Entropie.- 4.3.4. Entropie und Information.- 4.4. Codierung und Übertragung der Information.- 4.4.1. Codierung der Nachrichten.- 4.4.2. Übertragung einer Information auf einem binären Übertragungskanal.- 5. Fehler erkennende und Fehler korrigierende Codes.- 5.1. Allgemeines über Codierung.- 5.1.1. Übertragung einer Information.- 5.1.2. Nutzen der Redundanz bei der Übertragung einer Information.- 5.1.3. Der Code von Hamming.- 5.1.4. Fehler erkennende und Fehler korrigierende redundante Codes.- 5.2. Lineare Codes.- 5.2.1. Abstand der Vektoren eines Codes.- 5.2.2. Darstellung linearer Codes durch Matrizen.- 5.2.3. Der duale Code.- 5.2.4. Äquivalente Codes.- 5.2.5. Erkennung eines einfachen Fehlers.- 5.2.6. Korrektur der Fehler — das Standard-Schema.- 5.2.7. Bestimmung der Code-Worte.- 5.3. Zyklische binäre Codes.- 5.3.1. Darstellung einer binären Folge durch ein Polynom.- 5.3.2. Das erzeugende Polynom eines zyklischen Codes.- 5.3.3. Erkennung und Korrektur von Fehlern.- 5.3.4. Verwirklichung zyklischer Codes.- 5.4. Verkettete Codes.- 5.4.1. Übergangsmatrizen.- 5.4.2. Notwendige und hinreichende Bedingungen für Ketten.- 5.4.3. Erkennung und Korrektur der Fehler.- 1. Zerlegung von a und b in Primfaktoren.- 3. Mögliche Werte von n.- 4. Spezialfall.- 5. Beispiele.- Anhang 2: Codierung numerischer Informationen — Die wichtigsten Codes.- 1. Änderung der Basis und Codierung.- 2. Binärcodierung einer Dezimalzahl.- 3. Die wichtigsten binären Codes.- 3.1. Codes mit Gewichten.- 3.1.1. Reiner Binärcode.- 3.1.2. Neuner-Komplement.- 3.1.3. Code mit den Gewichten 2, 4, 2, 1..- 3.1.4. Code mit den Gewichten 5, 4, 2,1..- 3.2. Codes ohne Gewichte.- 3.2.1. Drei-Exzeß-Code.- 3.2.2. Reflexiver Binärcode.- 3.2.3. Binärer Code, bei dem jede Folge wenigstens eine und höchstens zwei Einsen enthält.- 4. Fehler erkennende Codes oder redundante Codes.- 4.1. Der biquinäre Code.- 4.2. „Zwei aus Fünf“-Codes.- Anhang 3: Codes die besonderen Erfordernissen entsprechen.- 1. Ein Code, der es gestattet, einen einzelnen Fehler oder eine Vertauschung zweier Ziffern in einer Zahl mit der Basis b zu erkennen.- 1.1. Fehlererkennung und Fehlerkorrektur.- 1.1.1. Fehlererkennung.- 1.1.2. Korrektur eines Fehlers.- 1.1.3. Beispiele.- 1.2. Erkennung von zwei Arten von Fehlern.- 1.2.1. Arten von Fehlern die erkannt werden.- 1.2.2. Erkennung von Fehlern und die Kontrollzahl.- 1.2.3. Darstellung der Kontrollzahl.- 1.2.4. Praktische Methode zur Berechnung der Kontrollzahl S.- 2. Codes, die es gestatten, Fehlergruppen zu korrigieren (Telegraphische Übertragung).- 2.1. Eigenschaften systematischer Codes.- 2.2. Korrektur der Fehlergruppen.- 2.4. Beispiel.- 3. Ein Code, der es gestattet, einen einfachen Fehler zu korrigieren, der nacheinander an derselben Stelle in den Teilen einer Nachricht auftritt.- 3.1. Restklassen modulo p.- 3.2. Fehlererkennung und -korrektur.- 3.3. Beispiele.- Anhang 4: Vektoren und Matrizen — Der n-dimensionale Vektorraum.- 1. Struktur des Vektorraumes.- 2. Unterräume.- 3. Lineare Unabhängigkeit von Unterräumen.- 4. Die Basis eines Vektorraumes.- 5. Rang einer Menge von p Vektoren in einem Unterraum F von E.- 6. Matrizen, die ein Vektorsystem darstellen.- 7. Kanonische Form einer (m, n)-Matrix.- 8. Matrizenoperationen zur Reduktion einer regulären Matrix auf ihre kanonische Form.- 9. Orthogonale Unterräume.- 10. Charakteristische Gleichung einer Matrix.- Anhang 5: Auszüge aus Tafeln.- Tafel 1. Binominalverteilung.- Tafel 1.1. Binominalkoeffizienten C(math) für n= 2 bis 15.- Tafel 1.2. Wahrscheinlichkeitsverteilung.- Tafel 2. Poisson-Verteilung.- Tafel 3. Normalverteilung.- Tafel 3.1. Wahrscheinlichkeitsdichte S(u).- Tafel 3.2. Verteilungsfunktion ø(u).- Tafel 3.3. Irrtumswahrscheinlichkeiten.- Tafel 4. Logarithmen mit der Basis 2.- Schrifttumsverzeichnis.- Statistische Tafeln.- Zusätzliche Literatur.