Benutzer-Werkzeuge

Webseiten-Werkzeuge


se:informationstheorie

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

se:informationstheorie [2009-02-23 16:52]
stefan
se:informationstheorie [2014-04-05 11:42]
Zeile 1: Zeile 1:
-====== Informationstheorie und Codierung ====== 
  
-===== Überblick ===== 
-  * Quellencodierung beseitigt Redundanz in der Nachricht 
-  * Kanalcodierung fügt der Nachricht wieder Redundanz hinzu (z.B. zur Fehlerkorrektur) 
- 
-===== Informationstheorie ===== 
-  * basiert auf grundlegenden Arbeiten von Shannon 
-  * eine **Quelle** liefert informationskennzeichnende **Zeichen** x<​sub>​i</​sub>​ aus einem q Zeichen umfassenden **Alphabet** X mit gewissen Wahrscheinlichkeiten 
-  * bei **stationäre Quellen** sind die Wahrscheinlichkeiten,​ mit denen die Quelle Zeichen abgibt nicht von der Zeit abhängig 
-  * bei **gedächtnislosen Quellen** sind die Wahrscheinlichkeiten der Zeichen unabhängig von zuvor oder im Anschluss gesendeten Zeichen 
-  * aus den Elementen des Zeichenvorrats können **Worte** w<​sub>​i</​sub>​ der Länge m<​sub>​i</​sub>​ gebildet werden. Es lassen sich q<​sup>​m</​sup>​ verschiedene Worte gleicher Länge m herstellen 
-  * eine **Codierung** ist die Vorschrift zur eindeutigen Abbildung der Zeichen eines Zeichenvorrats A auf Codeworte, die aus den Zeichen eines Zeichenvorrats B gebildet werden: C(x<​sub>​i</​sub>​) = w<​sub>​i</​sub>​ 
-    * Beispiele für Codes: Morse-Code, ASCII-Code, Dezimal-, Oktalzahlen etc. 
-  * **Information** ist Abbau von Ungewissheit (Beispiel Zufallsexperiment:​ Ausgang vorher unbekannt, danach bekannt) 
-  * **Informationsgehalt** I(x<​sub>​i</​sub>​)/​bit = -ld p(x<​sub>​i</​sub>​) 
-    * I(x<​sub>​i</​sub>,​ x<​sub>​j</​sub>​) = I(x<​sub>​i</​sub>​) + I(x<​sub>​j</​sub>​) 
-    * der Informationsgehalt ist umso größer, je unwahrscheinlicher das Zeichen ist 
-    * jedes Zeichen eines binären Zeichenvorrats hat bei gleichwahrscheinlichem Auftreten einen Informationsgehalt von -ld (0,5) = 1 
-  * die **Entropie H** ist der mittlere Informationsgehalt der Zeichen einer Quelle -> Maß für statistische Unordnung bzw. Unsicherheit 
-    * {{:​se:​entropie.jpg|}} 
- * die Entropie ist der Erwartungswert des Informationsgehalts 
- * die Entropie wird maximal, wenn alle Zeichen eines Zeichenvorrats gleich wahrscheinlich sind, Bezeichnung:​ H<​sub>​max</​sub>​ oder H<​sub>​0</​sub>​ 
-      * die maximale Entropie wird auch als **Entscheidungsgehalt** einer Quelle bezeichnet 
-  * der Unterschied zwischen H(x) und H<​sub>​0</​sub>​ wird als **Redundanz** bezeichnet: p = H<​sub>​0</​sub>​ - H(x) 
-    * eine Redundanz kann auch für Codes angegeben werden: p<​sub>​code</​sub>​ = L - H(x) mit L = mittlere Codewortlänge 
-    * relative Coderedundanz oder Weitschweifigkeit:​ (L - H(x)) / L, Codeeffizienz:​ H(x) / L 
-    * ein **optimaler Code** besitzt unter bestimmten Randbedingungen (insb. ganzzahlige Wortlängen) die geringstmögliche Redundanz bzw. größtmögliche Effizienz 
-  * eine Quelle, deren Gedächtnis K Zeichen in die Vergangenheit reicht, wird als Markov-Quelle K-ter Ordnung bezeichnet 
-    * allg. Markov-Quelle = Markov-Quelle 1. Ordnung, gedächtnislose Quelle = Markov-Quelle 0. Ordnung 
-  * die **bedingte Entropie H(x|s)** ist der Mittelwert (über alle Zustände) des mittleren Informationsgehalts eines Zeichens, das in einem bestimmten Zustand der Quelle abgegeben wird 
-    * {{:​se:​bedingteentropie.jpg|}} 
-    * die bedingte Entropie kann nie größer werden als die "​normale"​ Entropie 
-  * die **Verbundentropie (H(x,s)** ist der mittlere Informationsgehalt von ganzen Ausgangsfolgen einer Markov-Quelle 
-    * {{:​se:​verbundentropie.jpg|}} 
-    * {{:​se:​verbundentropie2.jpg|}} 
-    * H(x,s) = H(x|s) + H(s) wobei H(s) wiederum eine Verbundentropie ist 
-    * beim Erhöhen der Nachrichtenlänge nähert sich der mittlere Informationsgehalt pro Zeichen asymptotisch der bedingten Entropie 
- 
-===== Übertragungskanäle ===== 
-  * abstraktes Kanalmodell des **diskreten Kanals**: x -> Modulator -> physikalischer Kanal -> Demodulator -> y 
-  * die Aufgabe von Modulator und Demodulator ist es, einen möglichst guten diskreten Kanal zu bilden 
-  * die Aufgabe von Codierer und Decodierer ist es, eine zuverlässige Übertragung über diesen Kanal zu gewährleisten 
-  * Demodulationsverfahren 
-    * **Hard-Decision**:​ Ein- und Ausgabealphabet sind identisch 
-    * **Soft-Decision**:​ liefert kontinuierlich verteilte Ausgangswerte 
-  * bei **Kanälen mit Gedächtnis** hängt die Wahrscheinlichkeit des Ausgangszeichens nicht nur vom Eingangszeichen ab, sondern auch von den K vorangehenden Zeichen 
-  * diskreter gedächtnisloser Kanal = Discrete Memoryless Channel (DMC) 
-  * die **Kanalmatrix** enthält die Wahrscheinlichkeiten für die Ausgangszeichen 
-    * p(y<​sub>​j</​sub>​|x<​sub>​i</​sub>​) = Wahrscheinlichkeit,​ dass y<​sub>​j</​sub>​ empfangen wird, wenn x<​sub>​i</​sub>​ gesendet wurde 
-    * die Zeilensummen müssen 1 ergeben: 1 = p(y<​sub>​1</​sub>​|x<​sub>​i</​sub>​) + p(y<​sub>​2</​sub>​|x<​sub>​i</​sub>​) + ... + p(y<​sub>​j</​sub>​|x<​sub>​i</​sub>​) 
-    * p(x<​sub>​j</​sub>​|y<​sub>​i</​sub>​) heißt A-posteriori-Wahrscheinlichkeit,​ p(x<​sub>​j</​sub>​) heißt A-priori-Wahrscheinlichkeit 
-  * der **Detektor** schließt aus dem empfangenen Zeichen y<​sub>​i</​sub>​ auf das gesendete Zeichen x<​sub>​j</​sub>​ 
-    * Maximierung der A-posteriori-Wahrscheinlichkeit (Maximum-A-Posteriori-Probability-Detektion:​ **MAP-Detektion**) p(y<​sub>​i</​sub>​|x<​sub>​j</​sub>​) * p(x<​sub>​j</​sub>​) 
-    * wenn die Quellenstatistik nicht bekannt ist, fällt p(x<​sub>​j</​sub>​) weg bzw. ist für alle Eingangszeichen gleich. Dann wird lediglich das Maximum von p(y<​sub>​i</​sub>​|x<​sub>​j</​sub>​) gesucht -> **Maximum-Likelihood-Detektor** 
-  * Entropien im Kanal 
-    * {{:​se:​entropienimkanal.jpg|}} 
-    * die **Verbundentropie** des Kanals gibt den mittleren Informationsgehalt eines Ein-/​Ausgangszeichenpaares an 
-    * die bedingte Entropie H(x|y) heißt **Rückschlussentropie** oder **Äquivokation** und gibt den zusätzlichen Informationsgehalt eines Eingangszeichens an, wenn man das Ausgangszeichen kennt 
-    * die bedingte Entropie H(y|x) heißt **Streuentropie** oder **Irrelevanz** und gibt den zusätzlichen Informationsgehalt eines Ausgangszeichens an, wenn man das Eingangszeichen bereits kennt 
-    * H(x,y) = H(x|y) + H(y) = H(y|x) + H(x) 
-    * die **Transinformation I(x;y)** ist ein Maß für die mittlere in einem Ausgangszeichen enthaltene relevante Information (mittlerer Informationsgehalt abzüglich Irrelevanz) 
-      * I(x;y) = H(y) - H(y|x) 
-      * {{:​se:​transinformation.jpg|}} 
-  * Sonderfälle der DMC 
-    * **rauschfreier Kanal**: Kanalmatrix hat in jeder Zeile nur einen Wert != 0 
-    * **verlustfreier Kanal**: Kanalmatrix hat in jeder Spalte nur einen Wert != 0 
-    * **total gestörter Kanal**: Ein- und Ausgangszeichen sind statistisch unabhängig voneinander 
-    * **symmetrischer Kanal**: für die Elemente der Kanalmatrix gilt p(y<​sub>​i</​sub>​|x<​sub>​j</​sub>​) = 1 - p (Fehlerwahrscheinlichkeit des Kanals) wenn i = j, sonst = p / (q - 1) 
-      * Sonderfall: Binary Symmetric Channel (BSC) und Binary Symmetric Erasure Channel (BSEC) 
-  * die **Kanalkapazität** ist das Maximum der Transinformation für einen gegebenen Kanal 
-    * {{:​se:​kanalkapazitaet.jpg|}} 
-    * bei symmetrischen Kanälen führen gleiche Wahrscheinlichkeiten der Eingangszeichen zur maximalen Transinformation und damit zur Kanalkapazität ​   ​ 
se/informationstheorie.txt · Zuletzt geändert: 2014-04-05 11:42 (Externe Bearbeitung)