Benutzer-Werkzeuge

Webseiten-Werkzeuge


se:multimedia

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen Revision Vorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
se:multimedia [2009-03-22 13:31]
stefan
se:multimedia [2014-04-05 11:42] (aktuell)
Zeile 8: Zeile 8:
   * Methoden und Begriffe der Digitalisierung analoger Signale kennen   * Methoden und Begriffe der Digitalisierung analoger Signale kennen
   * wichtige Begriffe der Datenkompression und Datencodierung kennen   * wichtige Begriffe der Datenkompression und Datencodierung kennen
-  * verlustfreie und verlustbehaftete Kompressionsmethoden kennen  ​+  * verlustfreie und verlustbehaftete Kompressionsmethoden kennen 
 +  * die Verarbeitungsschritte des JPEG-Encoders kennen 
 +  * Verfahren der Interframe- und Intraframecodierung kennen 
 +  * die Evolutionsstufen der MPEG-Familie kennen 
 +  * die in MPEG verwendeten Kompressionsalgorithmen kennen 
 +  * den Aufbau des MPEG-Bilddatenstroms sowie Level und Profile kennen 
 +  * die Audiokompressionsverfahren der MPEG-Familie kennen 
 +  * die Anwendung psychoakustischer Erkenntnisse bei MPEG nachvollziehen 
 +  * die wichtigsten Dateiformate für Multimedia-Inhalte kennen 
 +  * wissen, welche Formate für welchen Zweck adäquat sind 
 +  * wichtige Werkzeuge und Geräte in der Medienproduktion kennen 
 +  * Grundlagen der elektronischen Klangerzeugung und Musikproduktion kennen 
 +  * verschiedene Alternativen bei der Medienproduktion identifizieren 
 +  * wichtige Netzwerkprotokolle und -dienste kennen und ihre Anwendungsgebiete benennen können 
 +  * Client- und Server-seitige Techniken kennen und identifizieren können, für welchen Zweck welche Technik adäquat ist 
 +  * wichtige Trends des WWW kennen und evaluieren können 
 +  * ermutigt sein, selbst neue Trends im WWW zu entdecken
  
 ===== Einleitung ===== ===== Einleitung =====
-  * **Kommunikation** ist die zielgerichtete,​ kanalgebundene Übertragung von Informationen von einem Sender zu einem oder mehreren Empfängern. ​+  * **Kommunikation** ist die zielgerichtete,​ kanalgebundene Übertragung von Informationen von einem Sender zu einem oder mehreren Empfängern.
   * Kommunikationskanäle zwischen Menschen   * Kommunikationskanäle zwischen Menschen
     * textuell (Wort und Schrift)     * textuell (Wort und Schrift)
Zeile 17: Zeile 33:
     * auditiv (Ton, Klang, Sprache)     * auditiv (Ton, Klang, Sprache)
     * taktil (Fühlen von Kräften, Texturen, Temperaturen)     * taktil (Fühlen von Kräften, Texturen, Temperaturen)
-    * olfaktorisch (Riechen und Schmecken)     ​+    * olfaktorisch (Riechen und Schmecken)
     * Wahrnehmung von Bewegung und Beschleunigung     * Wahrnehmung von Bewegung und Beschleunigung
   * im Zentrum von Multimedia stehen Menschen und ihre Wege, mit anderen Menschen und ihrer Umwelt zu kommunizieren   * im Zentrum von Multimedia stehen Menschen und ihre Wege, mit anderen Menschen und ihrer Umwelt zu kommunizieren
Zeile 24: Zeile 40:
  
 ===== Wahrnehmung ===== ===== Wahrnehmung =====
 +
 ==== Hören ==== ==== Hören ====
   * akustische Phänomene, die das Gehör wahrnimmt, sind Kompressionen und Verdünnungen der Luftmoleküle   * akustische Phänomene, die das Gehör wahrnimmt, sind Kompressionen und Verdünnungen der Luftmoleküle
Zeile 36: Zeile 53:
     * physikalisch:​ Dezibel als (logarithmische) Einheit für den Schalldruck -> menschliche Wahrnehmung ist nicht linear zur Frequenz     * physikalisch:​ Dezibel als (logarithmische) Einheit für den Schalldruck -> menschliche Wahrnehmung ist nicht linear zur Frequenz
     * phsychoakustisch:​ Phon als Einheit für die Lautstärke (Lautstärkeempfinden von Frequenzen im Bezug auf den 1kHz-Sinuston) -> kein quantitativer Vergleich von Lautstärken möglich, da Lautstärkeempfinden nicht proportional zu den Phon-Werten ist     * phsychoakustisch:​ Phon als Einheit für die Lautstärke (Lautstärkeempfinden von Frequenzen im Bezug auf den 1kHz-Sinuston) -> kein quantitativer Vergleich von Lautstärken möglich, da Lautstärkeempfinden nicht proportional zu den Phon-Werten ist
-    * Sone (N) als Einheit für die (subjektive!) Lautheit (qualitativer Vergleich von Klangereignissen),​ 1 sone = 40 Phon    +    * Sone (N) als Einheit für die (subjektive!) Lautheit (qualitativer Vergleich von Klangereignissen),​ 1 sone = 40 Phon
     * Umrechnung: N = 2<​sup>​(L<​sub>​N</​sub>​ - 40) / 10</​sup>​     * Umrechnung: N = 2<​sup>​(L<​sub>​N</​sub>​ - 40) / 10</​sup>​
     * {{:​se:​dBPhonSone.jpg|}}     * {{:​se:​dBPhonSone.jpg|}}
Zeile 44: Zeile 61:
     * temporale Maskierung (Vor- und Nachverdeckung):​ Maskierung vor (20ms) und nach (200ms) Auftreten des Maskierers     * temporale Maskierung (Vor- und Nachverdeckung):​ Maskierung vor (20ms) und nach (200ms) Auftreten des Maskierers
     * Schwebung und Rauhigkeit: zwei Töne ähnlicher Frequenz werden als ein Ton bestimmter Tonhöhe wahrgenommen,​ wobei der Schall durch die Phasenverschiebung eine Schwebung erfährt     * Schwebung und Rauhigkeit: zwei Töne ähnlicher Frequenz werden als ein Ton bestimmter Tonhöhe wahrgenommen,​ wobei der Schall durch die Phasenverschiebung eine Schwebung erfährt
-      * je größer die Frequenzdifferenz,​ umso rauher klingt der Ton, bishin zur Wahrnehmung zweier unterschiedlicher Töne   ​+      * je größer die Frequenzdifferenz,​ umso rauher klingt der Ton, bishin zur Wahrnehmung zweier unterschiedlicher Töne
     * Residuum: Töne von Instrumenten setzen sich aus Grundton und Obertönen (Harmonische,​ Frequenzen sind ganzzahlige Vielfache des Grundtons) zusammen, filtert man den Grundton heraus, vervollständigt das menschliche Gehör die fehlende(n) Grundschwingung(en) zum ursprünglichen Klangbild     * Residuum: Töne von Instrumenten setzen sich aus Grundton und Obertönen (Harmonische,​ Frequenzen sind ganzzahlige Vielfache des Grundtons) zusammen, filtert man den Grundton heraus, vervollständigt das menschliche Gehör die fehlende(n) Grundschwingung(en) zum ursprünglichen Klangbild
   * **kritische Bänder**: Schallereignisse werden in Frequenzgruppen wahrgenommen,​ deren Gruppenbreite mit steigender Frequenz zunimmt   * **kritische Bänder**: Schallereignisse werden in Frequenzgruppen wahrgenommen,​ deren Gruppenbreite mit steigender Frequenz zunimmt
Zeile 50: Zeile 67:
 ==== Sehen ==== ==== Sehen ====
   * Licht fällt durch die Hornhaus, Iris und Linse auf die Netzhaut (Retina)   * Licht fällt durch die Hornhaus, Iris und Linse auf die Netzhaut (Retina)
-  * Rezeptoren auf der Retina wandeln die Lichtinformationen in elektrische Impulse ​ +  * Rezeptoren auf der Retina wandeln die Lichtinformationen in elektrische Impulse
     * Zapfen: farb-/​helligkeitsempfindlich,​ 3 Typen: A grün, B gelb-rot, C violett, arbeiten bei Tageslicht optimal, Anzahl 6 Millionen     * Zapfen: farb-/​helligkeitsempfindlich,​ 3 Typen: A grün, B gelb-rot, C violett, arbeiten bei Tageslicht optimal, Anzahl 6 Millionen
     * Stäbchen: nur helligkeitsempfindlich,​ empfindlicher als Zapfen, Anzahl 120 Millionen     * Stäbchen: nur helligkeitsempfindlich,​ empfindlicher als Zapfen, Anzahl 120 Millionen
Zeile 56: Zeile 73:
   * wahrnehmbares Licht: 780nm (rot) - 390nm (violett)   * wahrnehmbares Licht: 780nm (rot) - 390nm (violett)
   * blinder Fleck: hier bündeln sich die Nervenbahnen des Auges zum Sehnerv   * blinder Fleck: hier bündeln sich die Nervenbahnen des Auges zum Sehnerv
-  * Gehirn verarbeitet Informationen und erzeugt ein Bild, blinder Fleck wird interpoliert,​ Farbinformationen werden gemischt, unterschiedliche Bilder der zwei Augen ermöglichen räumliches Sehen          +  * Gehirn verarbeitet Informationen und erzeugt ein Bild, blinder Fleck wird interpoliert,​ Farbinformationen werden gemischt, unterschiedliche Bilder der zwei Augen ermöglichen räumliches Sehen
   * {{:​se:​AufbauDesAuges.jpg|}}   * {{:​se:​AufbauDesAuges.jpg|}}
   * das Auflösungsvermögen des Auges ist biologisch begrenzt   * das Auflösungsvermögen des Auges ist biologisch begrenzt
Zeile 63: Zeile 80:
     * Helligkeitsunterschiede werden besser erfasst als Farbunterschiede     * Helligkeitsunterschiede werden besser erfasst als Farbunterschiede
       * maximale Farbempfindlichkeit bei gelb-grün       * maximale Farbempfindlichkeit bei gelb-grün
-    * 20 Bilder pro Sekunde werden bereits als kontinuierliche Bildfolge wahrgenommen       ​+    * 20 Bilder pro Sekunde werden bereits als kontinuierliche Bildfolge wahrgenommen
  
 ===== Analoge Fernsehtechnik ===== ===== Analoge Fernsehtechnik =====
Zeile 70: Zeile 87:
   * Elektronenstrahl läuft zeilenweise über das Bild, Nachleuchten der Fluoreszenzschicht vermittelt Eindruck eines Bildes   * Elektronenstrahl läuft zeilenweise über das Bild, Nachleuchten der Fluoreszenzschicht vermittelt Eindruck eines Bildes
   * inverse Funktionsweise kann für Kameras verwendet werden   * inverse Funktionsweise kann für Kameras verwendet werden
-  * Erkenntnisse über das Auflösungsvermögen des Auges führten zu einer Zahl von mindestens 600 Zeilen pro Bild    +  * Erkenntnisse über das Auflösungsvermögen des Auges führten zu einer Zahl von mindestens 600 Zeilen pro Bild
   * alle Zeilen nacheinander abzuarbeiten (progressive,​ 25 Vollbilder) führt zu Flimmern -> interlaced mode (50 Halbbilder)   * alle Zeilen nacheinander abzuarbeiten (progressive,​ 25 Vollbilder) führt zu Flimmern -> interlaced mode (50 Halbbilder)
   * Parameter von PAL   * Parameter von PAL
     * 625 Zeilen, 576 sichtbar     * 625 Zeilen, 576 sichtbar
-    * Vertikalfrequenz:​ 50Hz, Bilddauer 20ms  +    * Vertikalfrequenz:​ 50Hz, Bilddauer 20ms
     * Horizontalfrequenz:​ 50 * 312,5 = 15625Hz, Zeilendauer 64 Mikrosekunden     * Horizontalfrequenz:​ 50 * 312,5 = 15625Hz, Zeilendauer 64 Mikrosekunden
-    * YUV Farbmodell ​   +    * YUV Farbmodell
   * Signalübertragung   * Signalübertragung
-    * Bild-Austastung-Synchronisation (BAS)    +    * Bild-Austastung-Synchronisation (BAS)
     * {{:​se:​BAS.jpg|}}     * {{:​se:​BAS.jpg|}}
-    * Bildsignal: analoge Grauwertübertragung einer Bildzeile, Signalbereich 0,7 Volt    +    * Bildsignal: analoge Grauwertübertragung einer Bildzeile, Signalbereich 0,7 Volt
     * Austastungssignal:​ Signal beim Strahlenrücklauf (horizontal vs. vertikal), Pegel unter Schwarzbereich,​ in Austastlücke werden Metainformationen übertragen (VPS, Videotext, Prüfsignale)     * Austastungssignal:​ Signal beim Strahlenrücklauf (horizontal vs. vertikal), Pegel unter Schwarzbereich,​ in Austastlücke werden Metainformationen übertragen (VPS, Videotext, Prüfsignale)
-    * Synchronisationssignal:​ dient der Synchronisation jeder Bildzeile/​Halbbild,​ Übertragung in der Austastlücke ​   +    * Synchronisationssignal:​ dient der Synchronisation jeder Bildzeile/​Halbbild,​ Übertragung in der Austastlücke
   * Farbsysteme   * Farbsysteme
     * additiv: selbstleuchtende Farben (z.B. Fernseh-/​Computerbildschirme),​ RGB, alle Farben zusammen ergeben weiß     * additiv: selbstleuchtende Farben (z.B. Fernseh-/​Computerbildschirme),​ RGB, alle Farben zusammen ergeben weiß
Zeile 93: Zeile 110:
     * Kameras enthalten Rot-, Grün- und Blaufilter     * Kameras enthalten Rot-, Grün- und Blaufilter
     * Farbmonitore enthalten drei Elektronenquellen     * Farbmonitore enthalten drei Elektronenquellen
-    * BAS -> FBAS (F = Farbe): Übertragung der Fardifferenzen in der Austastlücke     ​+    * BAS -> FBAS (F = Farbe): Übertragung der Fardifferenzen in der Austastlücke
   * Fernsehstandards   * Fernsehstandards
     * NTSC (National Television Systems Committee): 720x485x30, YiQ Farbmodell     * NTSC (National Television Systems Committee): 720x485x30, YiQ Farbmodell
Zeile 104: Zeile 121:
     * kontinuierliche,​ analoge Signale <> diskontinuierliche,​ diskrete Signale     * kontinuierliche,​ analoge Signale <> diskontinuierliche,​ diskrete Signale
     * Generationsverlust <> kein Generationsverlust     * Generationsverlust <> kein Generationsverlust
-    * Störanfälligkeit im Übertragungskanal <> binäre Übertragung   ​+    * Störanfälligkeit im Übertragungskanal <> binäre Übertragung
   * Vorteile der Digitalisierung   * Vorteile der Digitalisierung
     * Computer arbeiten digital     * Computer arbeiten digital
     * die Bearbeitung und Verarbeitung von Medien in digitaler Form ist einfacher     * die Bearbeitung und Verarbeitung von Medien in digitaler Form ist einfacher
     * Datenkompression ist in digitalen Formaten einfacher zu realisieren     * Datenkompression ist in digitalen Formaten einfacher zu realisieren
-    * Fehlerschutz- und -korrekturmechanismen sind möglich ​   +    * Fehlerschutz- und -korrekturmechanismen sind möglich
     * Kopien sind ohne Generationsverlust durchführbar (entscheidender Punkt!)     * Kopien sind ohne Generationsverlust durchführbar (entscheidender Punkt!)
   * Digitalisierung von Audioinhalten   * Digitalisierung von Audioinhalten
Zeile 115: Zeile 132:
     * Abtastung zu bestimmten Zeitpunkten und Überführung in diskreten Wertebereich -> Digitalisierung     * Abtastung zu bestimmten Zeitpunkten und Überführung in diskreten Wertebereich -> Digitalisierung
     * **Abtast-/​Samplingrate**:​ Frequenz, mit der Werte im Signal abgetastet werden     * **Abtast-/​Samplingrate**:​ Frequenz, mit der Werte im Signal abgetastet werden
-      * Shannon-Nyquist-Theorem:​ f<​sub>​a</​sub>​ > 2 * f<​sub>​max</​sub>​Hz     ​+      * Shannon-Nyquist-Theorem:​ f<​sub>​a</​sub>​ > 2 * f<​sub>​max</​sub>​Hz
       * wird das SNT missachtet kann das Ausgangssignal nach der Digitalisierung nicht mehr eindeutig rekonstruiert werden       * wird das SNT missachtet kann das Ausgangssignal nach der Digitalisierung nicht mehr eindeutig rekonstruiert werden
       * menschliches Gehör kann bis zu 20kHz wahrnehmen -> Abtastrate > 40kHz       * menschliches Gehör kann bis zu 20kHz wahrnehmen -> Abtastrate > 40kHz
Zeile 124: Zeile 141:
       * jedes zusätzliche Bit in der Quantisierungsauflösung resultiert in einer Erhöhung der Klangdynamik um 6dB bei gleichzeitiger Reduzierung des Rauschens um 6dB       * jedes zusätzliche Bit in der Quantisierungsauflösung resultiert in einer Erhöhung der Klangdynamik um 6dB bei gleichzeitiger Reduzierung des Rauschens um 6dB
       * Pulse Code Modulation (PCM): linear = gleichmäßige Quantisierungsstufen,​ nicht-linear = logarithmische Quantisierungsstufen -> geringere Auflösung im unteren Wertebereich       * Pulse Code Modulation (PCM): linear = gleichmäßige Quantisierungsstufen,​ nicht-linear = logarithmische Quantisierungsstufen -> geringere Auflösung im unteren Wertebereich
- * CD-Audio: Abtastrate 44kHz, Auflösung 16bit+    ​* CD-Audio: Abtastrate 44kHz, Auflösung 16bit
   * Digitalisierung von Bildinhalten   * Digitalisierung von Bildinhalten
     * Zerlegung des Bildes in Raster bestimmter Auflösung, zeilenweise Abtastung     * Zerlegung des Bildes in Raster bestimmter Auflösung, zeilenweise Abtastung
     * Auflösung: Anzahl Zeilen und Bildpunkte pro Zeile     * Auflösung: Anzahl Zeilen und Bildpunkte pro Zeile
-    * Quantisierung:​ Anzahl der Graustufen pro Pixel   ​+    * Quantisierung:​ Anzahl der Graustufen pro Pixel
  
 ===== Datenkompression ===== ===== Datenkompression =====
Zeile 134: Zeile 151:
     * ein Signal x wird durch einen Encoder in ein komprimiertes Signal y gewandelt und durch den Übertragungskanal geschickt     * ein Signal x wird durch einen Encoder in ein komprimiertes Signal y gewandelt und durch den Übertragungskanal geschickt
     * der Empfänger ermittelt mit Hilfe eines Decoders das Ausgangssignal x'     * der Empfänger ermittelt mit Hilfe eines Decoders das Ausgangssignal x'
-    * bei verlustloser Kompression werden redundante Informationen gelöscht (Entropiekodierung) und x' entspricht genau x  +    * bei verlustloser Kompression werden redundante Informationen gelöscht (Entropiekodierung) und x' entspricht genau x
     * bei verlustbehafteter Kompression werden irrelevante Informationen gelöscht und x' ist nicht gleich x     * bei verlustbehafteter Kompression werden irrelevante Informationen gelöscht und x' ist nicht gleich x
   * Anforderungen an Kompressionsverfahren   * Anforderungen an Kompressionsverfahren
Zeile 143: Zeile 160:
     * Reduktion redundanter Daten <> Reduktion irrelevanter Daten     * Reduktion redundanter Daten <> Reduktion irrelevanter Daten
     * universell <> an zu komprimierenden Datenstrom angepasst     * universell <> an zu komprimierenden Datenstrom angepasst
-    * verlustfrei <> verlustbehaftet     ​+    * verlustfrei <> verlustbehaftet
   * **Entropiecodierung**:​ Verfahren, bei denen Auftrittswahrscheinlichkeiten zwischen verschiedenen unabhängigen Symbolen eines Alphabets zur Reduktion der Datenmenge ausgenutzt werden   * **Entropiecodierung**:​ Verfahren, bei denen Auftrittswahrscheinlichkeiten zwischen verschiedenen unabhängigen Symbolen eines Alphabets zur Reduktion der Datenmenge ausgenutzt werden
   * **Informationsgehalt** eines Zeichens: I<​sub>​i</​sub>​ = log (1 / p<​sub>​i</​sub>​) bit   * **Informationsgehalt** eines Zeichens: I<​sub>​i</​sub>​ = log (1 / p<​sub>​i</​sub>​) bit
Zeile 153: Zeile 170:
     * **Lauflängencodierung (RLE)**: nur effektiv wenn Basis des Zahlensystems klein und Anzahl der Wiederholungen (runs) groß ist     * **Lauflängencodierung (RLE)**: nur effektiv wenn Basis des Zahlensystems klein und Anzahl der Wiederholungen (runs) groß ist
     * **statische Patternsubstitution**:​ bestimmte Symbolfolgen treten häufig auf und bekommen fixe kurze Codeworte zugewiesen (z.B. "​sch"​ in der deutschen Sprache)     * **statische Patternsubstitution**:​ bestimmte Symbolfolgen treten häufig auf und bekommen fixe kurze Codeworte zugewiesen (z.B. "​sch"​ in der deutschen Sprache)
-      * ein Escape-Zeichen ist nötig ​   +      * ein Escape-Zeichen ist nötig
     * Lempel-Ziv-Welch (LZW): alle Symbole werden in das Ausgangswörterbuch geschrieben,​ dann wird dieses dynamisch vercollständigt     * Lempel-Ziv-Welch (LZW): alle Symbole werden in das Ausgangswörterbuch geschrieben,​ dann wird dieses dynamisch vercollständigt
   * Quellencodierung   * Quellencodierung
Zeile 164: Zeile 181:
     * Transformationscodierung:​ Transformierung vom Orts-/​Zeitraum in den Frequenzraum (damit kann leichter gearbeitet werden und es bieten sich mehr Möglichkeiten für Kompression)     * Transformationscodierung:​ Transformierung vom Orts-/​Zeitraum in den Frequenzraum (damit kann leichter gearbeitet werden und es bieten sich mehr Möglichkeiten für Kompression)
       * Transformation ist nicht verlustbehaftet und reversibel       * Transformation ist nicht verlustbehaftet und reversibel
-      * wichtige Transformationen:​ Discrete Fourier Transformation (DFT, bei Audiokompression) und Discrete-Cosinus-Transformation (DCT, bei Bild- und Videokompression) ​     ​+      * wichtige Transformationen:​ Discrete Fourier Transformation (DFT, bei Audiokompression) und Discrete-Cosinus-Transformation (DCT, bei Bild- und Videokompression) 
 + 
 +==== JPEG ==== 
 +  * 1992 von der Joint Photographic Experts Group (Gründung 1985 als Projektgruppe der ITU) spezifiziert,​ große Verbreitung durch das Internet 
 +  * hybrides Kompressionsverfahren,​ Bildsignal durchläuft verschiedene Codierungsschritte 
 +    * Vorverarbeitung (Zerlegung in Makroblöcke,​ Umwandlung in YCrCb) -> Transformation (DCT) -> Quantisierung (der Koeffizienten) -> Entropiecodierung (RLE und Huffman) 
 +    * {{:​se:​JPEGEncoder.jpg|}} 
 +    * Zerlegung in Farbkomponenten (YCbCr) mit 8bit für jeden Farbwert, Subsampling 4:2:0 -> Farbinformationen können vom menschlichen Auge nicht so gut unterschieden werden wie Helligkeitsinformationen 
 +    * Transformation jeder Komponente in 8x8-Makroblöcken mittels DCT 
 +      * die 64 Bildpunkte werden in 64 Frequenzbereiche umgeformt 
 +      * der 0,​0-Koeffizient wird DC-Koeffizient genannt und steht für den mittleren Grauwert des Blocks 
 +      * die übrigen Koeffizienten heißen AC-Koeffizienten und überlagern die Grundfrequenz des DC-Koeffizienten 
 +      * diese Transformation hat noch keinen Informationsverlust zur Folge 
 +    * (verlustbehaftete) Quantisierung der (Fließkomma-)Koeffizienten mittels einer Quantisierungsmatrix 
 +      * es können unterschiedliche Matrizen für Luminanz und Chrominanz verwendet werden 
 +      * der Quantisierungsfaktor bestimmt maßgeblich die Datenmenge und die subjektive Qualitätseinstufung des Bildes 
 +    * die DC-Koeffizienten durchlaufen einen Prädiktor und der Schätzfehler wird übertragen 
 +      * dieser wird Huffman-codiert mittels einer Tabelle, die den (großen) Wertebereich des DC-Koeffizienten in 12 Kategorien einteilt 
 +      * es muss nun ein Symbol für die Kategorie des Schätzfehlers übertragen werden und eines für den konkreten Wert 
 +      * die Kategorie legt gleichzeitig die Anzahl der benötigten Bits für den konkreten Wert fest 
 +      * {{:​se:​CodeTabelleDCKoeffizienten.jpg|}} 
 +        * Beispiel für DC[i] Wert 78 (Luma): Bitstrom 11110|1001110 (Kategorie 7, Wert 78) 
 +        * Beispiel für DC[i+1] Wert 66 (Luma), DIFF = 66 - 78 = -12: Bitstrom 101|0011 (Kategorie 4, Wert -12 = -15 + 3) 
 +    * die AC-Koeffizienten werden Lauflängen-codiert 
 +      * sie nehmen üblicherweise kleine Werte an, die sich nur marginal unterscheiden 
 +      * sie werden im Zick-Zack-Muster ausgelesen, da sich die höherfrequenten Anteile im oberen linken Bereich des Blocks konzentrieren -> höhere Wahrscheinlichkeit für Nullwerte am Ende des Vektors der AC-Werte 
 +      * auch die AC-Koeffizienten,​ die nicht 0 sind, werden mit zwei Symbolen codiert: eine Kategorie und die Anzahl der benachbarten Nullen 
 +        * Sonderwerte:​ 15/0 (ZRL, 16 Nullwerte), 0/0 (EOB) 
 +      * {{:​se:​CodeTabelleACKoeffizienten.jpg|}} 
 +        * Beispiel AC 2|0|0|0: Bitstrom 111110111|10 (Kategorie 2, 0-Lauflänge 3 -> 3/2, Wert 2) 
 +    * Verarbeitungsmethoden 
 +      * sequentiell:​ ein einziger Durchlauf, blockweise von links oben nach rechts unten -> jeder Block wird unabhängig verarbeitet,​ was zu einer großen Speichereffizienz führt 
 +      * progressiv: mehrere Durchläufe,​ erst grob aufgelöst, dann feiner -> Overhead, da für jede Progression die Position der Blöcke gespeichert werden muss 
 +        * spektrale Selektion: zuerst werden die tieffrequenten Koeffizienten übertragen,​ dann die hochfrequenten 
 +        * schrittweise Approximation:​ die obersten Bits aller Koeffizienten werden zuerst gesendet 
 + 
 +==== Bewegtbildkompression ==== 
 +  * zusätzlich zur Bildkompression die 4. Dimension Zeit 
 +  * **Framerate**:​ Geschwindigkeit der Bildabfolge in Frames (Einzelbilder) pro Sekunde 
 +  * **Intraframecodierung**:​ isolierte Komprimierung der Einzelbilder (z.B. Motion-JPEG) 
 +  * Ziel eines jeden Video-Codecs muss es sein, eine höhere Kompression als die Intraframecodierung zu erreichen und die Interframeredundanz zu eliminieren 
 +  * erster Ansatz: nur Veränderungen zwischen den Frames übertragen (Differenzcodierung) 
 +  * besser: Bewegungserkennung und Übertragung der Bewegungsvektoren 
 +    * komplexe Bewegungen wie Rotationen, Skalierungen und Verformungen könnten zwar berechnet werden, das ist aber zu aufwändig, sodass meist nur Verschiebungen von Objekten erkannt werden 
 +    * schwierige Bildteile werden absolut codiert 
 +  * Blockmatching 
 +    * Aufteilung des Bildes in 16x16-Blöcke (Kompromiss aus Genauigkeit und Aufwand) 
 +    * Finden einer Verschiebung durch Ermittlung des geringsten mittleren quadratischen Fehlers zwischen Ausgangsblock und neuem Bild 
 +      * Festlegen der Schwellenwerte δ und Δ 
 +        * MSE < δ: Codierung durch Verschiebungsvektor 
 +        * δ < MSE < Δ: Codierung durch Verschiebungsvektor und Prädiktionsfehler -> Differenzcodierung 
 +        * Δ < MSE: absolute Codierung 
 +      * alle möglichen Verschiebungen werden aus Performancegründen nicht betrachtet 
 +    * Methoden 
 +      * logarithmische Suche (kommt geringfügig schneller zum Ziel) 
 +      * 3-Stufen-Suche (fest vorgegebene Anzahl an Schritten) 
 +      * {{:​se:​SuchstrategienBlockmatching.jpg|}} 
 +      * neuere Methoden berechnen auch Halb- und/oder Viertelpixel (Interpolation) um eine noch genauere Verschiebung zu ermitteln 
 +    * zukünftige Inhalte lassen sich meist schwer vorhersagen,​ weshalb es sinnvoll ist, auch spätere Bilder zum Blockmatching zu verwenden (Bidirektionale Prädiktion) 
 +      * {{:​se:​PraediktionBlockmatching.jpg|}} 
 +    * Arten von Frames: I = intraframecodiert,​ P = Vorwärtsprädiktion,​ B = bidirektionale Prädiktion 
 + 
 + 
 +==== MPEG ==== 
 +  * 1988 enstand die Motion Picture Experts Group mit dem Ziel ein Verfahren für die Video- und Audiokompression zur Verwendung auf CD-ROMs zu standardisieren 
 +  * 1993 wurde MPEG1 offiziell freigegeben 
 +    * nur der Bitstrom und die Funktionsweise des Decoders wurde spezifiziert,​ nicht jedoch, wie ein Encoder zum Bitstrom gelangt -> Möglichkeiten zur Optimierung durch verschiedene Implementierungen 
 +    * die Optimierung durch diese Konkurrenz ist beachtlich: 1995 wurden noch 6MBit/s für einen optisch ansprechenden Bitstrom benötigt, heute nur noch 2MBit/s ohne den Decoder wechseln zu müssen 
 +  * MPEG1 sollte Videodaten auf Video-CDs bereitstellen -> max. 1,5MBit/s (einfache CD-ROM-Geschwindigkeit) mit VHS-Qualität 
 +    * Auflösung ist die Hälfte von PAL: 352x288 oder 352x240 (NTSC) 
 +    * jeder Decoder sollte mindestens unterstützen 
 +      * Horizontalauflösung <= 768 
 +      * Vertikalauflösung <= 576 
 +      * Makroblöcke pro Bild <= 396 
 +      * Frames pro Sekunde <= 30 
 +      * Bitrate <= 1,​86MBit/​s 
 +    * Bild muss für PAL und NTSC skaliert werden 
 +    * {{se:​AufbauMPEGEncoder.jpg|}} 
 +  * MPEG1 spezifiziert... 
 +    * Systemschicht:​ Verfahren zum Zusammenfassen der Video- und Audiodaten zu einem gemeinsamen Transportstrom,​ Organisation in Paketstruktur 
 +    * Videokompression 
 +      * Sequenzstrom ist aufgeteilt in GOPs, die immer mit einem I-Frame beginnen (Anzahl und Abfolge von B- und P-Frames stehen im GOP-Header und sind nicht durch MPEG spezifiziert) 
 +      * {{:​se:​MPEGGroupOfPictures.jpg|}} 
 +      * Frames sind unterteilt in Slices, die die Makroblöcke des Bildes enthalten 
 +      * Makroblöcke bestehen aus 4 8x8-Luminanzblöcken und 2 8x8-Chrominanzblöcken (-> Farbsubsampling 4:2:0) 
 +      * {{:​se:​BitdatenstromMPEG.jpg|}} 
 +    * Audiokompression 
 +      * Layer 1: CD-I, DCC 
 +      * Layer 2: DAB (digitales Radio) 
 +      * Layer 3: MP3 
 +    * Testvorschriften 
 +    * Software-Referenzmodell 
 +  * 1990 wurde mit der Arbeit an MPEG2 begonnen 
 +    * bessere Kompressionsraten bei höherer Bildqualität 
 +    * Ziel Anpassbarkeit an unterschiedliche Medien und Übertragungsgeschwindigkeiten 
 +    * 1998 verabschiedet 
 +    * abwärtskompatibel zu MPEG1 
 +    * insg. 10 Parts, zusätzlich zu den 5 von MPEG1 
 +      * Steuerung von digitalen Speichermedien (Einsatz im digitalen Fernsehen, Übertragung interaktiver Inhalte) 
 +      * nicht abwärtskompatible Audiokompressionsverfahren (Advanced Audio Coding) 
 +      * Real Time Interface 
 +      * DSM-CC Conformance 
 +      * Intellectual Property Management & Protection (IPMP) 
 +    * Levels: heben die starre Bildauflösung auf und ermöglichen höhere Auflösungen (bis zu 1920x1152) 
 +    * Profiles: kennzeichnen den Aufbau der GOPs und die Skalierbarkeit des Films 
 +      * Base Layer hochverfügbar,​ Enhancement Layer zur optionalen Qualitätssteigerung 
 +      * SNR-scaling:​ unterschiedliche Bildqualität bei gleicher örtlicher Auflösung 
 +      * spatial-scaling:​ unterschiedliche Auflösung, z.B. PAL und HDTV über einen Kanal 
 +      * temporal-scaling:​ Basisstrom enthält weniger Bilder, Zwischenframes werden interpoliert 
 +      * hybrid-scaling:​ Kombination aus obigen 
 +    * Farbsubsampling kann variiert werden: 4:2:0, 4:2:2, 4:4:4 
 +    * es können auch Halbbilder übertragen werden 
 +    * Audio: AAC, 5.1 
 +    * Datenströme 
 +      * Programmstrom zur Speicherung auf sicheren Medien, lange Datenpakete 
 +      * Transportstrom zur Übertragung auf fehleranfälligen Kanälen, kurze Pakete, Fehlerkorrektur und Redundanz 
 +  * die Arbeit an MPEG3 wurde eingestellt,​ da die anvisierten Optimierungen auch mit MPEG2 möglich waren 
 +  * 2000 wurde mit der Arbeit an MPEG4 begonnen 
 +    * Ziel: objektorientiertes Format mit Fokus auf interaktive Inhalte, synthetisch erzeugte Inhalte (Animationen) und Streaming 
 +    * universeller Codec für synthetische und natürliche Inhalte und nahezu alle Speicher- und Übertragungskanäle 
 +    * unterstützt interaktive,​ multimediale Computersysteme 
 +    * ermöglicht Kombination von synthetischen und natürlichen Szenen 
 +    * unterstützt Multiperspektiven 
 +    * Objektorientierung:​ Information wird segmentiert und als Aufbau von Objekten verstanden, z.B. Hintergrund und Vordergrund können unterschieden werden -> Compositings,​ wichtige Bildinhalte werden schwächer komprimiert,​ Alphamasken grenzen Objekt zu ihrer Umgebung ab 
 +    * Videoszenen werden baumförmig segmentiert (Binary Format for Scenes, BIFS) 
 +      * {{:​se:​BIFS.jpg|}} 
 +    * Sprache kann durch Sprachsynthese und MIDI-Daten codiert werden 
 +    * Optimierung der Videokompression:​ Bewegungsschätzung im Viertelpixel-Bereich,​ Block-Matching kann durch globale Bewegungsschätzung ersetzt werden, Luminanz- und Farbcodierung sind mit frei wählbaren Quantisierungstabellen belegbar 
 +    * eigener Objekttyp für Hintergründe,​ der größer sein kann als das sichtbare Bild und verschoben werden kann 
 +    * 17 Parts 
 +      * Delivery Multimedia Integration Framework (DMIF): Sitzungs- und Streamingprotokoll,​ übertragen werden Pointer auf die Inhalte anstatt Download 
 +    * Umfang ist so groß, dass er kaum umgesetzt werden konnte -> Videokomprimierungsanteil wurde 2003 gemeinsam mit der ITU spezifiziert:​ H.264/AVC 
 +      * Gemeinsamkeiten mit früheren Standards 
 +        * Luma-Chroma-Subsampling 4:2:0 
 +        * Makroblöcke 
 +        * Slices als Sequenz von Makroblöcken 
 +        * I-, B-, P-Frames 
 +        * Voll- und Halbbildmodus 
 +      * Verbesserungen 
 +        * Makroblöcke können bis auf 4x4 unterteilt werden 
 +        * Bewegungsvektoren mit Viertelpixel-Genauigkeit 
 +        * Bewegungsvektoren dürfen über die Bildgrenzen hinausragen 
 +        * multiple Referenzbilder für Bewegungsschätzung sind möglich 
 +        * Prädiktion in 9 verschiedenen Modi (horizontal,​ vertikal, diagonal in mehreren Abstufungen) 
 +        * Deblocking-Filter reduziert Blockartefakte 
 +        * Referenzierung wird von der Reihenfolge der Bilder losgelöst 
 +        * gewichtete Mittelung von Referenzblöcken bei bidirektionaler Prädiktion 
 +        * Umschalten von Vollbild- und Halbbild-Modus auf Makroblock-Ebene 
 +        * örtliche Prädiktion von Blöcken 
 +  * {{:​se:​EvolutionsstufenMPEG.jpg|}} 
 +    * MPEG1: Video auf CD-ROM, VHS-Qualität,​ 1,5MBit/s 
 +    * MPEG2: TV/​HDTV/​DVD,​ Qualitätsprofile,​ 4-8MBit/s 
 +    * MPEG4: universelle Anwendung, objektbasiert,​ 5kBit/​s-4MBit/​s 
 + 
 +===== Audiokompression ===== 
 +  * Audiodaten liegen als zeitdiskreter Bitstrom von Samplingwerten vor -> Transformation mittels FFT in den Frequenzraum 
 +  * mehrere Samples werden blockweise (Frames) transformiert (bei MP3 Fensterbreite 1152 Samples) 
 +  * Filterband teilt das Signal in schmalbandige Frequenzbänder auf 
 +    * Maskierungen und die Tatsache, dass Menschen komplexe Schallsignale in Gruppen wahrnehmen, führen zu 24 kritischen Frequenzbändern im Bereich zwischen 16Hz und 16kHz mit ungleicher Breite (ansteigend mit Frequenz) 
 +    * MP3 verwendet 32 gleichmäßige Frequenzbänder mit 6 oder 18 möglichen Subbändern (je nach Filterbank) 
 +  * die Komprimierung des Signals findet statt, indem die Frequenzbänder durch ein psychoakustisches Modul geschleust werden 
 +    * Ermittlung des Leistungsdichtespektrums und der Frequenz des Spitzenpegels im Band -> Maskierungsschwelle 
 +    * die Maskierungsschwelle wird mit der Ruhehörschwelle verrechnet und heraus kommt die minimale Bitanzahl pro Band, die das Signal (ohne Rauschen über der Hörschwelle) quantisiert 
 +      * optimales Subsampling,​ das das menschliche Ohr nicht wahrnehmen kann 
 +    * das Ergebnis geht in die Quantisierung und Codierung der Teilfrequenzbänder ein (Mono und Stereo bis zu 224kbit/​s) 
 +    * das Verfahren ist stark asymmetrisch (Decodierung ist weniger aufwändig als Codierung) 
 +  * Metainformationen:​ CRC-Checksummen,​ ID3-Tags 
 +  * Stereo-Signale 
 +    * Joint Stereo: Mono-Summensignal und Differenzsignale mit Panoramaschwankungen 
 +    * Intensity Stereo: verlustbehaftet,​ untere Frequenzbereiche (Bässe) werden mono-codiert da die Ortung durch das menschliche Ohr schlecht ist 
 +  * Dateiaufbau:​ jeder Frame hat eigenen Header und Prüfsummen -> Streaming möglich 
 +  * {{:​se:​QualitaetsstufenAudio.jpg|}} 
 +  * MP3: MPEG1 Layer 3 
 +    * 33, 44.1, 48kHz 
 +    * 32-224kbit/​s 
 +    * {{:​se:​MP3Encoder.jpg|}} 
 +  * AAC: bessere Komprimierung und Multikanalunterstützung 
 +    * MPEG2 und 4 
 +    * 5.1-Kanäle 
 +    * geringere Bandbreiten (8kbit/s) und Abtastraten (16kHz) möglich 
 +    * vergleichbare Qualität zu MP3 mit 70% der Bitrate 
 +    * nicht abwärtskompatibel zu MP3 
 +    * Aufteilung des Signals in 1024 Teilbänder und Transformation mittels DCT 
 +    * Temporal Noise Shaping (TNS) 
 +      * Kompensierung von Quantisierungsfehlern (Rauschen) im Zeitbereich durch Prädiktion insb. bei Sprache 
 +      * Verrechnung der Überlappung an den Grenzen der Frequenzbänder 
 +    * Rückwärtsprädiktion verringert die Codewortlängen 
 +    * Mehrkanalcodierung (M/S): Monosignal und Differenz der Stereomitte in weiteren Kanälen 
 +    * Quantisierung durch Gleitkomma-Quantisierung führt zu konstanterem SNR 
 + 
 +===== Dateiformate ===== 
 +==== Text ==== 
 +  * **Typographie**:​ Gestaltungsmuster und -regeln für Schriftdokumente und Ausgestaltung von Schriftarten (Fonts) und Zeichen (Glyphen) 
 +  * **Zeichensatz**:​ "​Übersetzungstabelle"​ von Symbolen/​Textzeichen in Binärwörter 
 +  * ASCII: Zeichensatz für englisches Alphabet, Zahlen, Steuerzeichen (1byte) 
 +    * Anpassungen für bestimmte Länder mit Sonderzeichen (z.B. Umlaute) z.B. ISO-8859-1 (westeuropäisch),​ ISO-8859-2 (osteuropäisch) 
 +      * Abwandlung durch Microsoft: CP-1252 
 +    * Probleme, wenn spezifischer Zeichensatz nicht installiert ist -> Zeichen werden falsch angezeigt 
 +  * Unicode: Multi-Byte-Zeichensatz,​ der alle Sprachen der Erde abdecken soll (Unicode 5: 99.089 Zeichen) 
 +    * bis zu 4byte wäre nötig, um alle Zeichen zu codieren -> Einführung von UTF-8 (8-bit Unicode Transformation Format) 
 +    * UTF-8 kann als Multi-Byte-Zeichensatz mit variabler Codewortlänge verstanden werden 
 +    * die wichtigsten Zeichen (=ASCII) werden mit 1byte codiert 
 +    * sprachspezifische Sonderzeichen werden dann mit 2-4byte codiert 
 +    * es sind bis zu 8byte pro Zeichen möglich 
 +  * Schriften 
 +    * **Schriftart**:​ kompletter Satz von Schriftzeichen einer bestimmten Ausgestaltungsform (z.B. Arial, Times) 
 +    * **Schriftschnitt**:​ Repräsentationsform einer Schriftart (z.B. fett, kursiv) 
 +    * **Schriftfamilie**:​ Schriftart inkl. Schnitte 
 +    * **Schriftgruppe**:​ bestimmte Ausgestaltungsform einer Schriftart (z.B. Groteske, Antiqua) 
 +  * Serifen: Querstriche an der Grund-, Mittel- und Oberlinie, die dem Auge Halt geben (Grund- und Mittellinie werden betont) und das Lesen längerer Texte vereinfachen 
 +  * {{:​se:​TypographischeMasse.jpg|}} 
 +  * Schriftdateiformate 
 +    * Bitmap: Glyphen sind gerasterte Bilder 
 +    * vektorbasiert:​ Skalierbare Beschreibung der Glyphen durch Stützpunkte,​ Liniensegmente und Kurvenbeschreibungen 
 +      * True Type (TTF): spezifiziert von Adobe, Einsatz in Windows 
 +      * Type1 Fonts (Postscript Fonts): spezifiziert von Adobe, besteht aus Klartextdateien (AFM, AMFM, ACFM), werden kompiliert in PFB (binär) oder PFA (ASCII), waren Standard auf Mac 
 +      * OpenType (OTF): entwickelt von Adobe und Microsoft, Erweiterung von True Type, kann als Container für Type1 dienen 
 +  * LaTeX: Markup-Sprache zur Textgestaltung,​ Stärke: mathematische Formeln, Trennung von Text und Gestaltung, muss kompiliert werden (z.B. in Postscript, PDF, HTML) 
 +  * RTF (Rich Text Format): Austauschformat für Textverarbeitungssysteme,​ Klartext-ASCII-Dateien ohne Semantik, globale Einstellungen im Kopf der Datei, Befehle werden durch \ eingeleitet,​ Text durch {} abgetrennt 
 + 
 +==== Bilder ==== 
 +  * Rasterbilder 
 +    * Aufteilung in rechteckiges Raster, Rasterpunkt = Pixel mit Informationen zur Helligkeit und Farbe 
 +    * Auflösung: räumliche Dichte der Pixel in horizontaler und vertikaler Richtung, Einheit dpi (dots per inch) 
 +    * Serialisierung zeilenweise von oben links nach unten rechts 
 +    * Pixel sind rechteckig (nicht zwangsläufig quadratisch,​ z.B. bei PAL 1:1,2) 
 +    * Skalierung nur durch Interpolation möglich -> Verlust der Auflösung 
 +  * Bitmap: verlustfreie Speicherung mit/ohne Lauflängencodierung,​ wird immer zeilenweise gelesen 
 +    * Header: Datentyp und Dateigröße 
 +    * BITMAP_INFO:​ Abmessungen des Bildes, Farbtiefe, Codierungsart 
 +    * Nutzdaten 
 +  * TIFF (Tagged Image File Format) 
 +    * spezifiziert 1980 von Aldus, HP, Microsoft 
 +    * besteht aus variabler Anzahl von Blöcken, die im Hauptdatenstrom per Zeiger referenziert werden -> beliebige Reihenfolge der Nutzdaten 
 +    * Blöcke enthalten Tags (12byte) mit Informationen zum Bild (z.B. Höhe, Breite, bit/​Pixel) 
 +    * keine oder verlustlose Komprimierung möglich: RLE, LZW, Baseline 
 +    * wird blockweise gelesen (z.B. nur sichtbarer Bereich bei Bildbearbeitung) 
 +    * mehrere Farbsysteme (RGB, CMYK) und Alphakanäle möglich 
 +    * TIFF 6.0: Rechte bei Adobe, kann mehrere Bildebenen speichern 
 +  * GIF (Graphics Interchange Format): 1987 von UNISYS und Compuserve vorgestellt 
 +    * variable Farbtabellen mit Größen der Zweierpotenzen bis 256 (global oder je Rasterblock),​ Farben aus RGB frei wählbar 
 +    * eine Farbe kann als transparent definiert werden, keine Alphakanäle 
 +    * seit GIF89a können Animationen als Bildfolgen definiert werden 
 +    * Komprimierung mit LZW 
 +    * Interlaced-Modus 
 +    * bis 2004 lizenzpflichtig 
 +  * PNG (Portable Network Graphics Format) 
 +    * 48bit pro Pixel -> Echtfarbfotos (nur RGB) 
 +    * lizenzfrei 
 +    * Vorwärtsprädiktion und LZW 
 +    * wie GIF: Farbtabellen,​ Interlaced-Modus,​ allerdings keine Animationen 
 +    * Alphakanäle mit 8/16bit Genauigkeit 
 +  * JPEG2000 
 +    * anstatt DCT werden Wavelets verwendet 
 +      * Nachteile DCT: bei Wertesprüngen werden viele Oberwellen benötigt, Amplituden von Cosinus nähern sich im Unendlichen keinem Grenzwert an 
 +    * Verwendung von Hoch- und Tiefpassfiltern und arithmetischer Codierung 
 +    * bei vergleichbarer Qualität 30% bessere Kompression als JPEG 
 +    * Regions of interest: Bildbereiche,​ die weniger stark komprimiert werden 
 +    * Resync-Marker erlauben Wiederaufnahme unterbrochener Übertragungen 
 +    * Artefakte an Blockgrenzen treten nicht so stark hervor 
 +    * stufenloser Übergang von verlustfreier zu verlustbehafteter Kompression wird unterstützt 
 +  * vektorbasierte Formate 
 +    * Grafik als Kombination aus Formen und Flächen (Linien, Kreise, Bezierkurven),​ Linienfarben und Füllungen mit Farbverläufen möglich 
 +    * viele proprietäre Formate 
 +    * Austauschformate im Bereich CAD/CAM: IGES (Initial Graphics Exchange Standard), DWF (Drawing Interchange Format) 
 +  * SVG (Scalable Vector Graphics) 
 +    * XML-Format, 2001 vom W3C spezifiziert 
 +    * fehlende Unterstützung im Internet Explorer 
 +    * wichtigste grafische Primitive: <​path>​ mit Attribut d für den Pfadverlauf (Großbuchstaben = absolute Angaben, Kleinbuchstaben = relative Angaben) 
 +      * m = moveto, l = lineto, q = quadratische Bezierkurve (Stützpunkt,​ Zielpunkt), c = kubische Bezierkurve (2 Stützpunkte,​ Zielpunkt), z = Pfad schließen 
 +    * Animationen sind möglich (Ableitung von Synchronized Multimedia Integration Language, SMIL) 
 +    * Filter wie Gaußscher Weichzeichner sind möglich 
 +    * Interaktion durch JavaScript ist möglich 
 +  * Postscript 
 +    * Seitenbeschreibungssprache von Adobe (1984) 
 +    * ist eine eigenständige Programmiersprache 
 +    * markiert Wendepunkt in der Digitalisierung des Druckgewerbes 
 +    * Container für Text, Grafiken etc. 
 +    * wird von einem Interpreter in Rasterdaten umgewandelt (z.B. direkt im Laserdrucker) 
 +    * CUPS baut auf Postscript auf 
 +    * wird ständig erweitert, kann JPEG verarbeiten,​ verschiedene Farbräume und Duplexmodi verwalten 
 +    * abwärtskompatible ASCII-Dateien 
 +    * Einbindung von Postscript-Dateien in DTP: EPS (Encapsulated Postscript),​ nur eine Seite je Datei möglich, Bounding Box beschreibt Größe 
 +  * PDF (Portable Document Format) 
 +    * von Adobe 1993 im Zusammenhang mit Acrobat vorgestellt 
 +    * Ziel: Vorantreiben des papierlosen Büros durch Bereitstellung eines Formats für digitale Dokumente, Vereinfachung der Druckvorstufe 
 +    * proprietäres Format, aber offengelegt und ISO-spezifiziert 
 +    * Features in Version 8 
 +      * Speicherung als komprimierter Byte-Code 
 +      * Aufnahme von Metainformationen 
 +      * Einbetten von Schriftarten 
 +      * Hypertextkonzepte 
 +      * Einbettung beliebiger anderer Dateien 
 +      * elektronische Formulare mit interaktiven Formularelementen 
 +      * Sicherheitsmechanismen 
 +      * digitale Zertifikate und Unterschriften 
 +      * Werkzeuge zur Überarbeitung und Korrektur von Dokumenten 
 + 
 +==== Audioformate ==== 
 +  * WAV (Wave) 
 +    * von IBM und Microsoft entwickelt 
 +    * unkomprimiert oder mit verlustloser Kompression 
 +    * beginnen mit Format-Chunk (Anzahl Kanäle, Samplingrate etc.) 
 +    * danach folgen Datenchunks in PCM oder ADPCM (Adaptive Differential PCM) oder mit Dynamikkompression (a-Law, μ-Law) 
 +    * zwischendurch können Fact-Chunks mit Sekundärdaten zum Musikstück oder Cue-Point-Chunks zur Synchronisation eingestreut sein 
 +  * AIFF (Audio Interchange Format) 
 +    * Verfahren von Apple, gleiches Verfahren wie bei Wave 
 +    * kann bis zu 6 Kanäle und MIDI-Chunks aufnehmen 
 +  * WAV und AIFF sind gängig bei Produktionen,​ da keine Generationsverluste auftreten und die Daten unkomprimiert vorliegen 
 +  * MP3 und AAC unterliegen Patentschutz 
 +  * Ogg: Open-Source-Datenformat für Audio- und Videodaten 
 +    * Ogg-FLAC (Free Lossless Audio Codec) 
 +      * verlustfreie Kompression bis zu 5:1 
 +      * Unterteilung in Blöcke mit bis zu 65536 Samples und Prädiktion aus vier möglichen Modellen 
 +      * Speicherung des Fehlers mit Rice-Codes 
 +      * umfangreiche Taggingmöglichkeiten 
 +    * Ogg-Vorbis 
 +      * verlustbehaftet 
 +      * 25% bessere Kompression im Vergleich zu MP3 
 +      * 256 Audiokanäle 
 +      * keine Begrenzung der Datenrate 
 + 
 +==== Videocontainer und -codecs ==== 
 +  * AVI und WMV 
 +    * Container für Videos unter Windows 
 +    * stellen Header und Body bereit 
 +    * machen keine Vorgaben für den Codec 
 +    * mögliche Codecs 
 +      * Cinepak: Keyframes und Differenzbilder,​ Rate 7:1 
 +      * Indeo: von Intel, stark asymmetrisch,​ Rate 7:1 
 +      * Microsoft Video-1: Rate 2:1 
 +      * DivX: Hack des Microsoft MPEG4-Codecs,​ Verwendung zunächst strafrechtlich verfolgt, inzwischen frei von proprietärem Code 
 +      * Xvid: ging 2002 durch Zusammenschluss der Programmierer von OpenDivX hervor 
 +  * Quicktime 
 +    * Multimedia-Framework von Apple (API und Dateiformat) 
 +    * kann Audio-, Bild- und Videodateien und Animationen aufnehmen 
 +    * hochintegrative Antwort auf Vielzahl verschiedener Codecs 
 + 
 +==== Medienproduktion ==== 
 +  * Einsatzzwecke 
 +    * Produktion von Hörspielen,​ Radiobeiträgen 
 +    * Musikproduktion 
 +    * Vertonung für Film und Fernsehen 
 + 
 +=== Audio === 
 +  * Mikrofon: wandelt Schallwellen der Luft in elektrische Signale 
 +    * dynamische Mikrofone 
 +      * umgekehrter Lautsprecher,​ Membran schwingt, angehängter Magnet bewegt sich in Kupferspule -> Induktion 
 +      * sehr robust, kompakte Bauform 
 +      * durch ihre akustische Trägheit geeignet für Aufnahme lauter Schallereignisse (Trompete, Schlagzeug etc.) 
 +      * Frequenzgang mittenbetont 
 +    * Kondensatormikrofone 
 +      * Schall verändert Abstand zweier metallischer,​ elektrisch geladener Membranen 
 +      * erzeugte Spannung ist sehr gering -> Verstärkung nötig -> Phantomspeisung 48V 
 +      * sehr empfindlich,​ feinerer Klang als dynamische Mikrofone 
 +    * **Richtcharakteristik**:​ Schallempfindlichkeit rings um den Mittelpunkt (die Membran) des Mikrofons 
 +      * {{:​se:​RichtcharakteristikaMikrofone.jpg|}} 
 +  * Mischpult 
 +    * zentrale Schaltstelle im Studio, führt mehrere Signalquellen zusammen 
 +    * definiert Routen für die Signale, passt Stimmen an, führt Ausgabe den Lautsprechern zu 
 +    * es gibt analoge, digitale und virtuelle Mischpulte 
 +    * Klassifizierung nach Anzahl Ein-/​Ausgänge 
 +    * Eingänge 
 +      * Line und Mikro (wird stärker verstärkt),​ Potentiometer regelt jeweilige Verstärkung 
 +      * Kanal-Insert:​ schickt das Signal durch ein Peripheriegerät (Effekte) 
 +      * Aux-Weg: schickt mehrere Signale durch Effekte, Anteil des Effekts kann durch Potentiometer gesteuert werden 
 +      * Equalizer: 3-4 Bandpassfilter für Verstärkung/​Dämpfung einzelner Frequenzbereiche 
 +      * Kanalregler:​ regelt die Signalstärke des Kanals in der Stereosumme 
 +      * Subgruppen: ermöglichen Abmischen mehrerer Kanäle (z.B. Schlagzeug) gleichzeitig 
 +  * Audiospuren müssen getrennt verwaltet werden können (für weitreichende Klangformung) 
 +    * früher wurden Mehrspurgeräte verwendet, heute digitalisierte Speicherung auf Festplatten 
 +    * Vorteile der Digitalisierung 
 +      * leichter zu verarbeiten und zu handhaben 
 +      * Kapazität der Festplatten kann beliebig gesteigert werden 
 +      * Anzahl der Aufnahmekanäle ist nur durch eingesetzte Soundkarte begrenzt 
 +  * Ausstattungsmerkmale moderner Audiokarten 
 +    * mehrere Ein- und Ausgänge 
 +    * Analog-Digital-Wandler mit 96kHz und 24bit 
 +    * Mikrofoneingänge mit Vorverstärker und Phantomspeisung 
 +    * MIDI-Anschluss 
 +  * MIDI (Musical Instrument Digital Interface) 
 +    * 1981 von Roland eingeführte serielle Schnittstelle zur Steuerung von digitalen Musikinstrumenten (Keyboards, Synthesizer) 
 +    * Steuerdaten zur Klangerzeugung und -aufnahme: Anschlag + Tonhöhe, Anschlagsstärke,​ Tonende, Controllerdaten 
 +      * keine Audioinhalte! 
 +    * Interface: 5-polige Rundbuchse mit 16 Kanälen 
 +    * Daten 
 +      * Channel Mode Messages: Steuerung von Musikgeräten 
 +      * System Common Messages: Auswertung durch alle Empfänger am Interface 
 +      * System Real-Time Messages: Synchronisation der Geräte 
 +      * System Exclusive Messages: Hersteller-/​Geräte-spezifische Daten (Versionsupdates etc.) 
 +    * {{:​se:​DatenpaketeMIDI.jpg|}} 
 +      * Daten liegen nur eventorientiert (beim Auftritt eines musikalischen Ereignisses) an 
 +      * Statusbyte enthält Ereignisart und MIDI-Kanal 
 +      * Datenbytes enthalten Werte des Ereignisses (2bytes bei Pitch Bend) 
 +    * {{:​se:​MIDIPorts.jpg|}} 
 +  * Synthesizer 
 +    * bereits 1900 wurde mit elektrischer Klangerzeugung experimentiert 
 +    * {{:​se:​BlockschaltbildSynthesizer.jpg|}} 
 +      * Oszillator: erzeugt (obertonreiches) kontinuierliches Signal (Wellenform:​ Sinus, Dreieck, Rechteck, Sägezahn) 
 +      * Filter: formt Signal im Frequenzraum (Tiefpass-/​Hochpassfilter eliminieren hohe bzw. tiefe Frequenzen) 
 +      * Verstärker:​ passt die Lautstärke an -> dynamisches Spiel 
 +      * ADSR-Hüllkurve:​ beschränkt das Signal zeitlich (sonst würden alle Töne unendlich lange gehalten) 
 +        * Attack: Zeit vom Anschlag des Tons bis zum vollen Signalpegel des Verstärkers 
 +        * Decay: Zeit vom vollen Signalpegel bis zum Sustain (Verweilpegel) 
 +        * Sustain: Lautstärkepegel,​ der nach der Decay-Zeit gehalten werden soll 
 +        * Release: Zeit vom Sustain bis zum Nullpegel (Ausklingzeit) 
 +      * Mixer: Mischen mehrerer Klangfarben aus der Verarbeitungskette 
 +  * Klangeffekte 
 +    * Audiomaterial muss gekonnt bearbeitet werden (Abmischung,​ gleichmäßige Abdeckung des Frequenzspektrums,​ Effekte) 
 +    * Limiter: begrenzt Signal strikt auf eingestellte Lautstärkeschwelle 
 +    * Kompressor: nach Überschreiten der Schwelle (Threshold) kann ein Verhältnis (Ratio) angegeben werden, zu dem das Signal abgeschwächt wird 
 +      * Abstand zwischen lauten und leisen Tönen wird verringert -> kompakterer Klang, geringere Dynamik 
 +    * Expander: Dynamik wird entgegengesetzt zum Kompressor erhöht 
 +    * Noisegate: unterdrückt Rauschen durch Sperren eines Signals unter einem bestimmten Pegel 
 +    * Hall: verleiht Sprache und Musik einen räumlichen Eindruck 
 +    * Echo: periodische Widerholung des Signals 
 +    * Chorus: doppelt das Signal leicht phasenverschoben und führt zu dichterem Klang 
 +    * Verzerrer: bilden das analoge Zerren von übersteuerten Eingangskanälen nach 
 +  * Werkzeuge und Software 
 +    * Sample-Editoren:​ Bearbeitung digitaler Audiodateien 
 +      * Schneiden, Zusammenfügen der Dateien in Wellenform 
 +      * Steinberg Wavelab, Sonic Foundry'​s Sound Forge 
 +    * Sequenzer: Musikproduktion 
 +      * Aufzeichnen und Senden von MIDI-Daten 
 +      * Einbindung von Synthesizern,​ Hard-Disk-Recording,​ Mischen 
 +      * Steinberg Cubase, Apple Logic, Digidesign ProTools 
 +      * Nachvertonung:​ Steinberg Nuendo 
 +    * Mastering-Software:​ Tonstudio im Rechner (Effekte, Mehrkanal, Mischen, Mastering) 
 + 
 +=== Foto, Video und DTP === 
 +  * **Desktop Publishing (DTP)**: Produktion von Druckerzeugnissen (Bücher, Zeitschriften,​ Flyer etc. vereinen Grafik, Foto und Text) mit Hilfe von Computertechnik 
 +  * analoge Kameras 
 +    * chemisches Filmmaterial,​ Entwicklung des Negativs zum Positiv, Kenngröße Lichtempfindlichkeit (ASA) 
 +    * Sucherkameras:​ Sucher getrennt vom Linsensystem -> Parallaxe (Versatz) zwischen Sucher und Optik 
 +    * Spiegelreflexkameras:​ Spiegel leiten die Lichtstrahlen der Optik in den Sucher 
 +    * Unterscheidung nach 
 +      * Kleinformatkameras (24x36mm, 35mm) 
 +      * Mittelformatkameras (5x6cm - 6x9cm) 
 +      * Großbildkameras (ab 6x9cmd) 
 +        * meist für inszenierte Fotografie 
 +    * Objektive: wichtig für Qualität der Bilder und die Bildgestaltung 
 +      * Normalwinkelobjektive:​ Brennweite = Diagonale des Filmmaterials,​ 50-80mm 
 +      * Teleoobjektive:​ enger Aufnahmewinkel,​ Makrofotografie,​ großer Zoom, Brennweite > normal 
 +      * Weitwinkelobjektive:​ großer Aufnahmewinkel,​ Panoramen, große Objekte bei geringem Abstand, Brennweite < normal 
 +  * digitale Fotografie 
 +    * hier wird kein chemischer Film belichtet, sondern ein optischer Sensor (CCD Charged Coupled Device oder APS Active Pixel Sensor), Speicherung auf Karten, Kenngröße Anzahl lichtempfindlicher Zellen (Auflösung) 
 +    * Qualität ist nicht mehr nur von Film und Objektiv abhängig, sondern auch von Auflösung des Chips 
 +    * CCD-Chips sind kleiner als übliche Filme, daher muss die Optik sehr gut sein und darauf angepasst 
 +    * Vorteile: direkte Verfügbarkeit des Bildes, geringe Kosten pro Bild 
 +  * Belichtung 
 +    * Blende: steuert die Lichtmenge, die auf den Film/Chip trifft (Durchmesser des Lichtkreises wird angepasst) 
 +      * je größer die Blendenzahl,​ desto kleiner die Öffnung 
 +      * die Blende steuert auch die Tiefenschärfe:​ wird sie geöffnet, werden die Elemente außerhalb der Schärfenebene unscharf 
 +    * Belichtungszeit von 1/2000 Sekunde bis zu mehreren Minuten 
 +    * um die optimale Kombination aus Blende und Belichtungszeit zu bestimmen, werden Belichtungsmesser (intern oder extern) verwendet 
 +  * Bildbearbeitung 
 +    * wichtig im professionellen Bereich 
 +    * früher Aufgabe des Retuscheurs 
 +    * heute: Photoshop oder The Gimp (nicht im professionellen Bereich) 
 +      * Größenumrechnung/​Interpolation 
 +      * Umrechnung in verschiedene Farbsysteme 
 +      * Erstellen von Beschneidungspfaden 
 +      * Bearbeiten von Alphakanälen 
 +      * mehrere Bildebenen und -masken 
 +      * Ebeneneffekte und Bildeffekte durch Filter 
 +  * DTP 
 +    * vektorbasierte Zeichenprogramme:​ Adobe Illustrator und Freehand 
 +    * "​echtes"​ DTP (Adobe InDesign, Quark XPress) 
 +      * professioneller Textsatz (Blocksatz, Silbentrennung,​ Umfluss) 
 +      * freie Definition von Druckbögen 
 +      * Anlegen von Musterseiten 
 +      * Referenzierung von Bildelementen 
 +      * "​Verpacken"​ aller Dateien 
 +      * Funktionen für die Druckvorstufe (Farbseperation,​ Überfüllung,​ Typographie) 
 +    * Arbeitsschritte der Druckvorstufe:​ DTP -> Reinzeichnung -> Belichtung (4x) -> Druck 
 +  * Computeranimation:​ synthetische Erzeugung von Bildern mit dem Computer 
 +    * Anwendungsgebiete:​ Werbung, Trailer, Spezialeffekte in Filmen, Computerspiele 
 +    * Ablauf: Modellierung -> Reflexionsverhalten/​Texturierung -> Beleuchtung -> Kameradefinition -> Animation 
 +    * Programme sind sehr komplex mit hoher Lernkurve 
 +      * Autodesk 3D Studio Max und Maya, Maxon Cinema 4D, Blender 
 +    * Körper werden aus Grundkörpern zusammengesetzt,​ die verformt werden können 
 +    * bei Lebewesen bietet sich die Definition eines digitalen Skeletts an -> physikalisch plausible Bewegungen 
 +    * Oberflächen können mit Texturen belegt werden und ihre Eigenschaften definiert werden (matt, glänzend, transparent etc.) 
 +    * Objekte werden auf einer Bühne positioniert und belichtet (digitale Lichtquellen) 
 +    * die Position der Kamera und auch die Blendeneinstellungen (Tiefenschärfe) können dann konfiguriert werden 
 +    * Szenen können dann in einer Zeitachse animiert werden 
 +  * Videokameras 
 +    * professionelle Filmkameras arbeiten auch heute noch analog mit chemischer Belichtung 
 +    * Auflösungen:​ PAL, 720p (1280x720 progressive),​ 1080i (1920x1080 interlaced) 
 +    * Fernseh- und Videokameras arbeiten mit CCD-Chips, können aber die Daten auch analog ausgeben 
 +    * günstige Geräte besitzen nur einen Chip, der vor jeder Zelle Filter für Farben hat (1 rot, 1 blau, 2 grün) 
 +      * dadurch ist nur ein Viertel der Auflösung des Chips nutzbar -> fehlende Information muss interpoliert werden 
 +    * hochwertige Kameras besitzen 3 Chips (einen für jede Grundfarbe) 
 +      * {{:​se:​SchematischerAufbauVideokamera.jpg|}} 
 +      * Vorverarbeitung vor dem Ausgang 
 +        * Aperturkorrektur:​ korrigiert Unschärfen durch Tiefpassfilter um Chip vor ultravioletter Strahlung zu schützen 
 +        * Gamma-Vorentzerrung:​ stellt die Kamerakennlinie ein (Verhältnis zwischen durchschnittlicher Grauwertverteilung am CCD und dem Ausgangssignal),​ Adaption zur Lichtumgebung 
 +        * Weißabgleich:​ Anpassung an die Farbtemperatur (Sonnenlich 5500 Kelvin, Kunstlicht 3200 Kelvin) der Umgebung 
 +        * Bildstabilisatoren:​ unterdrücken Verwackeln des Bildes bei manueller Kameraführung durch Bewegungserkennung anhand markanter Bildpunkte, die Auflösung des CCD muss hierfür größer sein als der aktive Bildausschnitt 
 +    * analoge Aufzeichnungsmedien 
 +      * Video-8: FBAS, 8mm 
 +      * S-VHS und Hi8: S-Video, höhere Qualität als Video-8 
 +      * Betacam SP: 1 Zoll Bandbreite, YUV, qualitativ sehr hochwertig 
 +    * digitale Formate 
 +      * DV (Konsortium von 60 Herstellern) 
 +      * DVCAM (Sony) 
 +      * DVCPRO, MiniDV (Standard im digitalen Bereich) 
 +      * Digital 8 (Sony) 
 +      * Aufzeichnung auf MiniDV-Kassetten (Intraframekompression mit DCT, 25MBit/s) 
 +    * HD-Formate 
 +      * HDV (Sony und JVC, MPEG2) 
 +      * DVCPRO HD (Panasonic, Profisegment) 
 +      * AVCHD (Panasonic und Sony, basiert auf AVC aus MPEG4) 
 +  * Kameraführung:​ freihändig,​ mit Stativ, Steadycam, Kameradolly,​ Kamerakran 
 +  * Videoschnitt 
 +    * klassischer Schnitt: Kopien vom Originalnegativ -> physikalisches Schneiden -> Editor Decision List (EDL) -> Kopiermaster (Null-Kopie) 
 +      * {{:​se:​KlassischerFilmschnitt.jpg|}} 
 +    * linearer Schnitt: Kopieren des Films auf eine Masterkopie in linearer Reihenfolge 
 +    * nicht-linearer Schnitt: Schnittpunkte werden lediglich referenziert (Cue-Points) -> EDL bis zuletzt änderbar 
 +    * Onlineschnitt:​ Schnitt des Orinials 
 +    * Offlineschnitt:​ Schnitt einer Arbeitskopie 
 +    * Schnittplatz 
 +      * analog: linear offline, mehrere Videor-Player,​ Video- und Audiomischpult,​ Effektmodul,​ Rekorder 
 +      * digital: nicht-linear online, Einspielgeräte an Framegrapperhardware (Digitalisierung analoger Signale), Speicherung auf Festplatten,​ Schnittsoftware 
 +    * digitaler Schnitt 
 +      * Bereitstellung des Materials: Digitalisieren des benötigten Materials (Bilder, Videos etc.) 
 +      * Rohschnitt: grobe Szeneneinteilung 
 +      * Komposition:​ Szenen werden in Zeitleiste montiert, Überblenden und Effekte hinzugefügt 
 +      * Feinschnitt:​ Feinheiten der Blenden und Effekte 
 +      * Tonmischung:​ Originalaufnahmen,​ Stimmen und Musik werden gemischt 
 +    * Produkte: AVID (Hard- und Software), AVID XPress DV, Adobe Premiere, Final Cut Pro 
 +  * **Postproduction**:​ Auf- und Nachbereitung des rohen Film- oder Videomaterials bis zum Master 
 +    * heute nicht nur Schnitt, sondern Einfügen von Effekten, Farbkorrekturen,​ Kontrastanpassungen,​ Fehlerkorrektur (Kratzer, Verwacklungen),​ Audio-Postproduction 
 +    * Produkte: Apple Shake, Autodesk Combustion, Adobe AfterEffects 
 +  * **Compositing**:​ Zusammenstellung von Bildfragmenten unterschiedlicher Herkunft zu einer Szene (Verschmelzen von Real-, Trick- und Animationsfilmsequenzen) 
 +    * in-camera: Komposition beim Dreh (Matt-Painting,​ Rück-/​Vorprojektion) 
 +    * Integration mittels Keying: bei Chromakey werden Farben als transparent definiert und Schauspieler werden vor Blue-/​Greenscreen gefilmt (Alphakanäle möglich) 
 + 
 +===== Internettechnologien ===== 
 +  * Internet 
 +    * 1960 ARPA-Net (vernetzte Großerchner von Universitäten) 
 +    * 1971 E-Mail 
 +    * 1989 WWW durch Tim Berners-Lee am CERN: erster Browser und HTML 
 +  * URL und DNS 
 +    * IP-Adresse identifiziert einen Netzteilnehmer eindeutig 
 +    * Ports unterscheiden mehrere Datenströme eines Clients 
 +    * IP + Port = Socket 
 +    * URI/URL als Adresse zur Verbindungsherstellung mittels TCP/UDP 
 +      * <​Schema>://​[<​Benutzer>​[:<​Passwort>​]@]<​Server-ip|Server-dn>​[:​Port]/​[<​Pfad>​][?<​Parameter-id>​=<​Parameter-Wert>​][&<​Parameter-id>​=<​Parameter-Wert>​][#<​Fragment>​] 
 +    * DNS bindet IP-Adressen an Namen (Domains) 
 +      * [Rechnername][<​Subdomain>​][Domain][TLD] 
 +    * Domains kennzeichnen einen Verbund von Rechnern in einem Netzwerk (logische Einheit) 
 +    * Top-Level-Domains:​ für Länder, Organisationen und Firmen 
 +    * DNS-Server sind gekoppelt, damit nicht jeder Server alle IP-Adressen und Namen im Internet kennen muss (Relaying) 
 +  * E-Mail: aus der Not zur Kommunikation heraus entstanden (Ray Tomlinson) 
 +    * basiert auf drei ASCII-Protokollen 
 +      * SMTP (Simple Mail Transfer Protocol, Port 25): Versand und Relay von Mails an MTAs (Mail Transfer Agent) 
 +      * POP (Post Office Protocol, Port 110): Abrufen und Entfernen von Nachrichten von einem Server 
 +      * IMAP (Internet Message Access Protocol, Port 143): Online-Zugriff auf ein Postfach, Mails verbleiben auf dem Server 
 +  * HTTP (Hypertext Transfer Protocol, Port 80) 
 +    * textbasiertes Protokoll zur Kommunikation zwischen Webbrowser und Webserver 
 +    * GET zur Anfrage einer Seite 
 +    * Antwort des Servers in der unterstützten Protokollversion mit Statuscode (200 = OK), Metadaten des Servers und der Seite Response-Header und die Seite im Response-Body,​ Bilder usw. werden danach übertragen 
 +    * HTTP 1.0: seperate Verbindung für jede Ressource, HTTP 1.1: eine Verbindung reicht 
 +    * Datenübertragung an den Server: GET (Länge eingeschränkt) und POST (im Request-Body) 
 +    * zustandslos -> Sessions (servergespeichert und Cookies) 
 +    * WebDAV (Web-based Distributed Authoring and Versioning):​ Webserver kann auch als Fileserver genutzt werden 
 +  * FTP (File Transfer Protocol, Port 21) 
 +    * ASCII-basierts Protokoll zum Austausch von Dateien 
 +    * unverschlüsselte Übermittlung von Zugangsdaten -> SFTP 
 +  * **Hyptertext**:​ in einem Hypertextsystem werden Dokumente, die Teil der Gesamtinformation sind, in Knoten abgelegt und durch Links miteinander verknüpft -> semantisches Netz 
 +  * **XML** enthält, formt, benennt, strukturiert und schützt Informationen 
 +    * Markupsprache mit Tags 
 +    * Tag + Inhalt = Element 
 +    * Vorteile: Textdateien,​ universell einsetzbar, frei erweiterbar,​ einfach zu verstehen 
 +    * Definition von XML-Strukturen 
 +      * Document Type Definition: gut für Elementstrukturen und Attributlisten,​ aber wenig Möglichkeiten zur Kontrolle des Textinhalts 
 +      * Schema: selbst XML-Dateien mit weitreichenden Kontrollmöglichkeiten 
 +    * XPath: Abfragesprache für XML ähnlich zu SQL für Datenbanken 
 +      * boolesche Ausdrücke, Vergleichsoperationen,​ numerische Operationen,​ Stringmanipulation 
 +    * XSLT (Extensible Style Language Transformation):​ Umwandlung von XML in beliebige andere Formate 
 +      * Sonderform XSL-FO zur Umwandlung in PDF und Postscript 
 +    * Beispiele für definierte Formate: DocBook, RelaxNG, MathML 
 +  * HTML ist die Sprache des WWW und definiert sowohl strukturelle als auch gestalterische Elemente zur Erstellung von Internetseiten 
 +    * HTML 4.1 lehnt sich nur an XML an, 2001 wurde XHTML spezifiziert,​ ein valides XML-Format 
 +    * gute Webseiten nutzen HTML zur Strukturierung der Inhalte und CSS zur Gestaltung 
 +  * CSS ist eine Technik um die Inhalte von XML-Dokumenten grafisch zu gestalten -> Trennung von Inhalt und Layout 
 +    * Grundlage: Box-Modell mit Margin, Border und Padding 
 +    * Einbindung per STYLE oder in seperaten Dateien 
 +    * mittels Selektoren werden Elemente angegeben, die dann über Style-Definitionen formatiert werden sollen 
 +      * Elemente können IDs und Klassen zugewiesen bekommen 
 +    * kaskadierbar:​ mehrere CSS-Dateien pro Dokument, spezialisierte Definitionen überschreiben generische Definitionen 
 +    * Problem: unterschiedliche Darstellung in den einzelnen Browsern 
 +  * JavaScript: Skriptsprache,​ die in den Quelltext von HTML-Seiten eingebunden werden kann 
 +    * Ausführung auf Client-Seite,​ wird interpretiert,​ schwache Typisierung,​ dynamische Bindung, OO-Konzepte,​ Einsatz meist für EventHandling 
 +    * Zugriff auf Funktionen des Webbrowsers,​ Hilfsobjekte und HTML-Dokument 
 +    * kein Zugriff auf Ressourcen des Clients (trotzdem Gefahr durch XSS) 
 +  * Adobe Flash 
 +    * 1997 von Macromedia veröffentlicht,​ erstes Programm für vektorbasierte Animationen in Webseiten 
 +    * Objekte werden auf einer Bühne platziert und animiert, ActionScript wird für das Scripting verwendet 
 +    * ActionScript 2.0 und Flash MX 2004 in 2003 -> OO-Konzepte 
 +    * 2005 Übernahme durch Adobe 
 +    * Autorenwerkzeug:​ Zeitleiste, Bühne, Bibliothek (vektorbasierte Objekte, Filme, Bilder etc.) 
 +    * wichtigste Objekte: Instanzen der Klasse MovieClip -> Container für beliebige in Flash adressierbare Elemente 
 +      * stellen Attribute und Methoden für Skalierung, Manipulation der Zeitleiste, Bewegung usw. möglich sind 
 +      * ein Film muss nicht stringent der Zeitleiste folgen, sondern kann durch ActionScript geloopt, gestoppt, fortgesetzt werden 
 +      * prinzipiell kann jedes aktive Element ActionScript aufnehmen 
 +    * Vorteile von ActionScript 2.0 
 +      * durchgängig objektorientiertes Konzept 
 +        * Vererbung, Polymorphismus,​ Interfaces 
 +      * Klassen können in eigenen Klassendateien verwaltet und wiederverwendet werden 
 +      * Bibliotheksobjekte lassen sich mit Klassen verknüpfen -> Trennung Design/​Code 
 +      * Event-Handler Factory-Klassen (MovieLoader) setzen bekannte Patterns der OOP um 
 +    * Verbreitungsgrad des Plugins 85%-95% 
 +    * "​echte"​ Multimedia-Webseiten können erzeugt werden 
 +    * Nachladen von Bildern, Animationen,​ XML-Anbindung an Middleware, Audioeinbettung 
 +    * Flash-Video-Forma FLV ist proprietär und nicht offengelegt,​ hohe Verbreitung durch YouTube 
 +    * 2004 erste Version von Flex als integriertes Werkzeug zur Erstellung von Multimedia-fähigen Oberflächen für Websites 
 +      * Flex-Builder:​ IDE für Multimedia-Frontends (Eclipse-Plugin) 
 +      * große Klassenbibliothek für Datenein- und -ausgabe und Layoutgestaltung 
 +      * Layout wird mit MXML-Dateien realisiert 
 +      * Kommunikation zum Server mittels WebServices 
 +      * Flex Data-Services ermöglicht weitere Anbindung über RPC, JMS, EJB und ColdFusion, Java-Anwendung,​ die z.B. im Tomcat deployt werden kann, sehr teuer 
 +      * {{:​se:​SchichtenAdobeFlex.jpg|}} 
 +    * Flash dient zur Erstellung von RIA mit Animation, Sound, Video 
 +    * trotz großer Verbreitung geringere Client-Unterstützung als AJAX 
 + 
 +===== Serverseitige Technologien ===== 
 +  * CGI (Common Gateway Interface): Mechanismus zum Aufruf externer Programme durch HTML-Seiten 
 +    * einfaches Deployment durch interpretierte schwach-typisierte Sprachen: Perl (Practical Extraction and Report Language), PHP, Python, Ruby 
 +  * Java 
 +    * Entwicklung durch Sun Microsystems mit Ziel der Plattformunabhängigkeit,​ seit 2007 OpenSource 
 +    * Java lehnt sich an C++ an, aber 
 +      * keine Mehrfachvererbung 
 +      * Garbage-Collector anstatt Destruktoren 
 +      * keine Pointer 
 +    * Java-Code wird in Bytecode übersetzt, der auf der Laufzeitumgebung (JRE) läuft 
 +    * Applets: kleine Java-Applikationen auf dem Webserver, die in der JRE des Clients in einer Sandbox laufen, heute kaum noch relevant 
 +    * Servlet-API und JSP 
 +      * Servlets verarbeiten HTTP-Requests und -Responses 
 +      * JSP vereinfachen die Arbeit mit HTML: hier wird Code in HTML eingebettet 
 +      * benötigt Servlet-Container wie Apache Tomcat 
 +    * J2EE enthält Komponenten und Bibliotheken um mehrschichtige,​ datenbank- und transaktionsgestützte Webanwendungen zu entwickeln 
 +      * Skalierbarkeit,​ Performance,​ Interoperabilität 
 +      * benötigt einen Application Server mit den folgenden Komponenten 
 +        * EJB: Geschäftslogik (Session-, Entity- und Message-Driven-Beans) 
 +        * Servlets / JSP: HTML-Fassade für die Clients 
 +        * JSF: baut auf JSP auf und ermöglicht den Einsatz von kompletten Komponenten zur Datenein- und -ausgabe und Navigationsregeln mittels XML, Daten werden von Managed-Beans verwaltet 
 +        * JNDI: Schnittstelle für Anwendungen zur Nutzung beliebiger Datencontainer 
 +        * JMS: API für asynchrone Nachrichtenverarbeitung 
 +        * JDBC: API für relationalen Datenbankzugriff 
 +        * JTA: Transaktionsmanagement 
 +        * JPA: einfache Erstellung von Entity-Beans und Datenbankanbindung 
 +        * Java Mail: Schnittstelle für Mailverarbeitung 
 +      * insbesondere bei großen Webapplikationen im Einsatz 
 +      * Nachteil ist die starre Vorgabe von Richtlinien für die Beans etc. -> Overhead 
 +      * Reaktion von Sun in EJB 3.0 und Java EE 5.0: Annotationen kennzeichnen Klassen (z.B. Persistenz und WebServices) 
 +        * Vorteile: Daten sind in der Klasse selbst definiert, Compiler kann Fehler erkennen 
 +  * .NET-Framework 
 +    * erste Ansätze durch ASP -> Einbettung von VisualBasic in HTML, Auswertung durch IIS 
 +    * ASP reichte schnell nicht mehr aus -> .NET-Framework 
 +    * Laufzeitumgebung CLR: verschiedene Programmiersprachen möglich (VB, C++, C#), Übersetzung in Intermediate Language (IL), die dann ausgeführt wird 
 +    * {{:​se:​AufbauCLR.jpg|}} 
 +    * Common Type System als Datentyp-Grundlage für alle Programmiersprachen 
 +      * {{:​se:​DatentypenCTS.jpg|}} 
 +    * Features: Exception-Handling,​ Garbage-Collector,​ JIT, Sicherheitsmechanismen,​ umfangreiche Klassenbibliothek,​ Reflection, Generics 
 +      * Performance liegt zwangsläufig unter nativem Maschinencode 
 +    * Einsatz für mehrschichtige Webanwendungen 
 +      * ADO.NET für DB-Zugriff, Logik in DLLs, Präsentation durch ASP.NET 
 +      * Datenabstraktion durch LINQ 
 +    * WPF: Framework für die Erstellung von Anwendungsoberflächen und Darstellung multimedialer Inhalte 
 +      * 2D und 3D Rendering Engine 
 +      * XAML (Extensible Application Markup Language) zur Beschreibung der Oberflächen -> Trennung Design und Logik 
 +      * Silverlight 
 +  * Ruby on Rails 
 +    * Ruby: schwach typisierte OO-Skriptsprache 
 +    * Rails: Webframework 
 +    * convention over configuration,​ don't repeat yourself 
 +    * Prinzipien: semantische Dateistruktur,​ Active Records, Scaffolding,​ offene Architektur,​ AJAX integriert 
 + 
 +===== Web 2.0 ===== 
 +  * RSS/Atom: XML-Format für Neuigkeiten auf Webseiten 
 +    * Schema für XML-Dateien 
 +    * Einbindung über LINK in HTML-Seiten 
 +  * Podcasts: Neologismus aus iPod und Broadcast 
 +    * Basis ist RSS 
 +    * MP3s werden per RSS verteilt 
 +    * normale Nutzer können "ihr eigenes Radioprogramm erstellen"​ 
 +    * Vorteil: asynchrones Anhören der Inhalte nach Download 
 +  * Blogs: Abkürzung für Weblog 
 +    * Massenphänomen dank einfacher Software (CMS) 
 +  * Wikis 
 +    * Benutzer erstellen Inhalte gleichberechtigt 
 +    * setzen sich auch in Unternehmen durch (Kundenbindung,​ Marketing) 
 +    * Problem: Qualitätssicherung 
 +    * Folksonomy 
 +  * AJAX (Asynchronous JavaScript and XML) 
 +    * durchbricht das bisherige Paradigma der Webseiten durch dynamisches Laden von Teilbereichen der Seiten 
 +    * Kommunikation mit Server über XMLHttpRequest-Objekt 
 +    * Beispiele: Google Mail, Yahoo 
 +    * Möglichkeiten:​ Drag-and-Drop,​ Online-Anwendungen wie Office, Eingabevalidierung on-the-fly 
 +    * Benutzer braucht kein Plugin (nur JavaScript) 
 +    * Probleme 
 +      * Unterstützung durch die verschiedenen Browser (insb. IE) 
 +      * Browser-Buttons funktionieren nicht mehr 
 +      * Lesezeichen können nicht genutzt werden 
 +      * höherer Traffic 
 +      * Debugging ist schwierig 
 +  * Mashups: Vernetzung von Komponenten verschiedener Herkunft in einem Angebot (Content-Syndication) 
 +    * Beispiele: Google Maps, Videoportale,​ Yahoo Pipes 
 +  * Web 2.0: keine Technologie,​ sondern der Wandel der Rezeption und Produktion multimedialer Inhalte im Internet 
 +    * Grenze zwischen Produzent und Konsument weicht auf 
 +    * Content wird von den Benutzern erstellt 
 +    * Anwendungen verlagern sich auf Webserver 
 +    * Probleme: Datenschutz,​ Sicherheit, Kriminalität,​ Medienkompetenz ist nötig 
 + 
 +===== Virtual Reality ===== 
 +  * dem Benutzer wird ein Modell der Welt dargeboten, das der Benutzer beeinflussen kann 
 +  * Kennzeichen 
 +    * Interaktivität:​ Einwirken auf die künstliche Welt 
 +    * Gleichzeitigkeit:​ unmittelbare Reaktion der künstlichen Welt 
 +    * Immersion: Verschmelzen mit der künstlichen Welt 
 +  * Einsatzgebiete 
 +    * Computerspiele 
 +    * Medizintechnik 
 +    * Produktdesign 
 +  * die Immersion erfordert neue Eingabemöglichkeiten (HCI, Human Computer Interface) 
 +    * neue physikalische und biologische Sensoren 
 +      * Datenhandschuh 
 +      * Monitorbrille (Head Mounted Display) 
 +      * Lagesensoren 
 +      * Tracking-Systeme 
 +  * VRML (Virtual Reality Modeling Language) 
 +    * 1994 erschienen, 1996 kam Version 2 und VRML Konsortium wurde gegründet 
 +    * ASCII-basierte Sprache zur Beschreibung von 3D-Objekten 
 +    * wird vom Browser interpretiert 
 +    * plattformunabhängig 
 +    * kann Animationen,​ Videos, Bilder, Klänge beinhalten 
 +    * ermöglicht Benutzerinteraktion 
 +    * Probleme: Browserkompatibilität,​ langsam 
 +    * Beschreibung der virtuellen Welt durch einen Szenegraph in Baumstruktur mit verschiedenen Knotentypen 
 +      * Geometrikknoten für geometrische Formen 
 +      * Interpolatoren für zeitliche Veränderungen 
 +      * Sensoren generieren benutzer- oder zeitgesteuert Ereignisse 
 +      * Umgebungsknoten für Lichtquellen,​ Audio etc. 
 +      * Ansichtknoten für Navigations- und Kamerainformationen 
 +      * Scriptknoten steuern Ereignisse per JavaScript 
 +    * Unterschied zu 3D-Programmen:​ VRML wird nicht gerendert, sondern zur Laufzeit dargestellt 
 +    * 2003 wurde X3D eingeführt,​ das VRML in ein XML-Format überführt
  
 ===== Links ===== ===== Links =====
   * [[http://​www.sengpielaudio.com/​RechnerSonephon.htm|Zusammenhang zwischen sone und phon]]   * [[http://​www.sengpielaudio.com/​RechnerSonephon.htm|Zusammenhang zwischen sone und phon]]
 +  * [[http://​de.wikipedia.org/​wiki/​Farbunterabtastung|Farbunterabtastung]]
  
 ===== ToDo ===== ===== ToDo =====
   * Unterscheidung BAS / FBAS   * Unterscheidung BAS / FBAS
   * LZW und Huffman im Baum durchspielen   * LZW und Huffman im Baum durchspielen
 +  * logarithmische und 3-Step-Suche am Beispiel durchführen
 +  * Unterschiede zwischen wichtigen Themen herausarbeiten
 +  * Flash und ActionScript anschauen
 +
 +==== Alte Klausur ====
 +  * Definitionen:​ GOP, XML, XSLT
 +  * Huffman und LZW anwenden
 +  * Vorteile des AVC
 +  * ActionScript-Ausschnitte erklären
 +  * JPEG erklären
 +  * Unterschied AJAX / Servlet/​Applet
 +  * CSS Box Model
 +  * Shannon-Nyquist-Theorem anwenden
  
 ===== Klausur ===== ===== Klausur =====
Zeile 185: Zeile 964:
     * Ein Algorithmus ist eine **eindeutige** Abbildung.     * Ein Algorithmus ist eine **eindeutige** Abbildung.
   * [[http://​de.wikipedia.org/​wiki/​Determinismus_%28Algorithmus%29|Determinismus]]   * [[http://​de.wikipedia.org/​wiki/​Determinismus_%28Algorithmus%29|Determinismus]]
-    * Zu jedem Zeitpunkt ist der nachfolgende Abarbeitungsschritt eines Algorithmus eindeutig festgelegt. ​ ​   ​+    * Zu jedem Zeitpunkt ist der nachfolgende Abarbeitungsschritt eines Algorithmus eindeutig festgelegt.
   * [[http://​de.wikipedia.org/​wiki/​Kontinuit%C3%A4t|Kontinuität]] (analoge Signale)   * [[http://​de.wikipedia.org/​wiki/​Kontinuit%C3%A4t|Kontinuität]] (analoge Signale)
     * lückenloser Zusammenhang,​ Stetigkeit, stetige Werte     * lückenloser Zusammenhang,​ Stetigkeit, stetige Werte
   * [[http://​de.wikipedia.org/​wiki/​Diskretheit|Diskretheit]]   * [[http://​de.wikipedia.org/​wiki/​Diskretheit|Diskretheit]]
-    * räumliche oder zeitliche Trennung von Objekten oder Ereignissen ​     +    * räumliche oder zeitliche Trennung von Objekten oder Ereignissen
   * [[http://​de.wikipedia.org/​wiki/​Schwingungsdauer|Periode]] = Schwingungsdauer **T**   * [[http://​de.wikipedia.org/​wiki/​Schwingungsdauer|Periode]] = Schwingungsdauer **T**
     * Eine Periode ist die kleinste Zeitdauer einer sich wiederholenden physikalischen Erscheinung.     * Eine Periode ist die kleinste Zeitdauer einer sich wiederholenden physikalischen Erscheinung.
   * [[http://​de.wikipedia.org/​wiki/​Frequenz|Frequenz]] **f**   * [[http://​de.wikipedia.org/​wiki/​Frequenz|Frequenz]] **f**
-    * Kehrwert der Periode ​     +    * Kehrwert der Periode
   * [[http://​de.wikipedia.org/​wiki/​Harmonische_Schwingung|harmonische Schwingung]]   * [[http://​de.wikipedia.org/​wiki/​Harmonische_Schwingung|harmonische Schwingung]]
     * Zeitabhängigkeit der veränderlichen Zustandsgrößen ist sinusförmig.     * Zeitabhängigkeit der veränderlichen Zustandsgrößen ist sinusförmig.
-    * t und F sind unabhängig von Amplitude.   ​+    * t und F sind unabhängig von Amplitude.
   * [[http://​de.wikipedia.org/​wiki/​Grenzwert_%28Folge%29|Konvergenz]] <> Divergenz   * [[http://​de.wikipedia.org/​wiki/​Grenzwert_%28Folge%29|Konvergenz]] <> Divergenz
     * Existenz eines Grenzwertes bei einer Folge     * Existenz eines Grenzwertes bei einer Folge
   * [[http://​de.wikipedia.org/​wiki/​Fraktal|Fraktal]]   * [[http://​de.wikipedia.org/​wiki/​Fraktal|Fraktal]]
-    * Gebilde mit hoher Selbstähnlichkeit (Beispiel: Mandelbrot-Menge) ​ +    * Gebilde mit hoher Selbstähnlichkeit (Beispiel: Mandelbrot-Menge)
   * [[http://​de.wikipedia.org/​wiki/​Korrelation|Korrelation]]   * [[http://​de.wikipedia.org/​wiki/​Korrelation|Korrelation]]
-    * Beziehung zwischen zwei oder mehr statistischen Variablen (nicht zwingend kausal). ​ +    * Beziehung zwischen zwei oder mehr statistischen Variablen (nicht zwingend kausal).
  
 ===== ToRead ===== ===== ToRead =====
   * DIN 33401   * DIN 33401
se/multimedia.1237725084.txt.gz · Zuletzt geändert: 2014-04-05 11:42 (Externe Bearbeitung)