Benutzer-Werkzeuge

Webseiten-Werkzeuge


se:multimedia

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Nächste Überarbeitung
Vorhergehende Überarbeitung
se:multimedia [2008-03-28 16:12]
stefan angelegt
se:multimedia [2014-04-05 11:42] (aktuell)
Zeile 1: Zeile 1:
 ====== Multimedia ====== ====== Multimedia ======
  
 +===== Lernziele =====
 +  * die physiognomischen Eigenheiten von Hören und Sehen kennen
 +  * den Aufbau analoger Fernsehübertragungstechnik kennen
 +  * das analoge Fernsehsignal in seinen Grundzügen nachvollziehen
 +  * die Motivation der digitalen Signalverarbeitung nachvollziehen
 +  * Methoden und Begriffe der Digitalisierung analoger Signale kennen
 +  * wichtige Begriffe der Datenkompression und Datencodierung kennen
 +  * verlustfreie und verlustbehaftete Kompressionsmethoden kennen
 +  * die Verarbeitungsschritte des JPEG-Encoders kennen
 +  * Verfahren der Interframe- und Intraframecodierung kennen
 +  * die Evolutionsstufen der MPEG-Familie kennen
 +  * die in MPEG verwendeten Kompressionsalgorithmen kennen
 +  * den Aufbau des MPEG-Bilddatenstroms sowie Level und Profile kennen
 +  * die Audiokompressionsverfahren der MPEG-Familie kennen
 +  * die Anwendung psychoakustischer Erkenntnisse bei MPEG nachvollziehen
 +  * die wichtigsten Dateiformate für Multimedia-Inhalte kennen
 +  * wissen, welche Formate für welchen Zweck adäquat sind
 +  * wichtige Werkzeuge und Geräte in der Medienproduktion kennen
 +  * Grundlagen der elektronischen Klangerzeugung und Musikproduktion kennen
 +  * verschiedene Alternativen bei der Medienproduktion identifizieren
 +  * wichtige Netzwerkprotokolle und -dienste kennen und ihre Anwendungsgebiete benennen können
 +  * Client- und Server-seitige Techniken kennen und identifizieren können, für welchen Zweck welche Technik adäquat ist
 +  * wichtige Trends des WWW kennen und evaluieren können
 +  * ermutigt sein, selbst neue Trends im WWW zu entdecken
 +
 +===== Einleitung =====
 +  * **Kommunikation** ist die zielgerichtete,​ kanalgebundene Übertragung von Informationen von einem Sender zu einem oder mehreren Empfängern.
 +  * Kommunikationskanäle zwischen Menschen
 +    * textuell (Wort und Schrift)
 +    * visuell (Licht und Farbe)
 +    * auditiv (Ton, Klang, Sprache)
 +    * taktil (Fühlen von Kräften, Texturen, Temperaturen)
 +    * olfaktorisch (Riechen und Schmecken)
 +    * Wahrnehmung von Bewegung und Beschleunigung
 +  * im Zentrum von Multimedia stehen Menschen und ihre Wege, mit anderen Menschen und ihrer Umwelt zu kommunizieren
 +  * **Multimedia** ist der Trend, die Kanäle, über die Menschen mit ihrer Umwelt kommunizieren,​ mit Mitteln der Informationswissenschaft über alle Quellen zu integrieren und als Gesamtheit für die Kommunikation zu nutzen.
 +  * Multimedia-Kanäle:​ Text, Bild, Film/Video, Internet, Virtual Reality, Audio
 +
 +===== Wahrnehmung =====
 +
 +==== Hören ====
 +  * akustische Phänomene, die das Gehör wahrnimmt, sind Kompressionen und Verdünnungen der Luftmoleküle
 +  * die Druckwellen treffen auf das Trommelfell und werden über die Ohrknöchelchen an die Cochlea übermittelt
 +  * feine Flimmerhärchen in der mit Lymphflüssigkeit gefüllten Cochlea schwingen und geben elektrische Impulse ans Gehirn weiter
 +  * {{:​se:​AufbauDesGehoers.jpg|}}
 +  * das menschliche Gehör kann Schallereignisse im Bereich von 18 Hz bis 20.000 Hz wahrnehmen
 +  * Töne tiefer Frequenz benötigen einen höheren Schalldruck,​ um wahrgenommen zu werden -> **Hörschwelle**
 +  * **Schmerzschwelle**:​ Schalldruck,​ ab dem die Rezeption zu Schmerzempfinden führt
 +  * **Hörfeld**:​ Bereich zwischen Hörschwelle und Schmerzschwelle
 +  * Einheiten
 +    * physikalisch:​ Dezibel als (logarithmische) Einheit für den Schalldruck -> menschliche Wahrnehmung ist nicht linear zur Frequenz
 +    * phsychoakustisch:​ Phon als Einheit für die Lautstärke (Lautstärkeempfinden von Frequenzen im Bezug auf den 1kHz-Sinuston) -> kein quantitativer Vergleich von Lautstärken möglich, da Lautstärkeempfinden nicht proportional zu den Phon-Werten ist
 +    * Sone (N) als Einheit für die (subjektive!) Lautheit (qualitativer Vergleich von Klangereignissen),​ 1 sone = 40 Phon
 +    * Umrechnung: N = 2<​sup>​(L<​sub>​N</​sub>​ - 40) / 10</​sup>​
 +    * {{:​se:​dBPhonSone.jpg|}}
 +  * Psychoakustik:​ Teilgebiet der Psychophysik,​ das versucht, die Zusammenhänge zwischen physikalischen Eigenschaften von Schallsignalen und dem menschlichen Hörempfinden zu beschreiben
 +  * psychoakustische Phänomene
 +    * tonale Maskierung: schmalbandiger Schall einer bestimmten Intensität löscht Frequenzen geringerer Lautstärke in seinem Frequenzumfeld aus (**Mithörschwelle**:​ Grenze, ab der der Ton wahrgenommen wird), Effekt ist abhängig von Frequenz und Schallpegel des Maskierers
 +    * temporale Maskierung (Vor- und Nachverdeckung):​ Maskierung vor (20ms) und nach (200ms) Auftreten des Maskierers
 +    * Schwebung und Rauhigkeit: zwei Töne ähnlicher Frequenz werden als ein Ton bestimmter Tonhöhe wahrgenommen,​ wobei der Schall durch die Phasenverschiebung eine Schwebung erfährt
 +      * je größer die Frequenzdifferenz,​ umso rauher klingt der Ton, bishin zur Wahrnehmung zweier unterschiedlicher Töne
 +    * Residuum: Töne von Instrumenten setzen sich aus Grundton und Obertönen (Harmonische,​ Frequenzen sind ganzzahlige Vielfache des Grundtons) zusammen, filtert man den Grundton heraus, vervollständigt das menschliche Gehör die fehlende(n) Grundschwingung(en) zum ursprünglichen Klangbild
 +  * **kritische Bänder**: Schallereignisse werden in Frequenzgruppen wahrgenommen,​ deren Gruppenbreite mit steigender Frequenz zunimmt
 +
 +==== Sehen ====
 +  * Licht fällt durch die Hornhaus, Iris und Linse auf die Netzhaut (Retina)
 +  * Rezeptoren auf der Retina wandeln die Lichtinformationen in elektrische Impulse
 +    * Zapfen: farb-/​helligkeitsempfindlich,​ 3 Typen: A grün, B gelb-rot, C violett, arbeiten bei Tageslicht optimal, Anzahl 6 Millionen
 +    * Stäbchen: nur helligkeitsempfindlich,​ empfindlicher als Zapfen, Anzahl 120 Millionen
 +  * fovea centralis: Punkt größter Sehschärfe,​ hier sind nur Zapfen vorhanden
 +  * wahrnehmbares Licht: 780nm (rot) - 390nm (violett)
 +  * blinder Fleck: hier bündeln sich die Nervenbahnen des Auges zum Sehnerv
 +  * Gehirn verarbeitet Informationen und erzeugt ein Bild, blinder Fleck wird interpoliert,​ Farbinformationen werden gemischt, unterschiedliche Bilder der zwei Augen ermöglichen räumliches Sehen
 +  * {{:​se:​AufbauDesAuges.jpg|}}
 +  * das Auflösungsvermögen des Auges ist biologisch begrenzt
 +    * bestimmte Detailtiefe wird nicht mehr wahrgenommen
 +    * ruhende Objekte werden besser erfasst als sich bewegende
 +    * Helligkeitsunterschiede werden besser erfasst als Farbunterschiede
 +      * maximale Farbempfindlichkeit bei gelb-grün
 +    * 20 Bilder pro Sekunde werden bereits als kontinuierliche Bildfolge wahrgenommen
 +
 +===== Analoge Fernsehtechnik =====
 +  * {{:​se:​BrownscheRoehre.jpg|}}
 +  * Elektronen werden durch Magnetspulen abgelenkt und bringen auf einer Mattscheibe ein fluoreszierendes Material zum Leuchten
 +  * Elektronenstrahl läuft zeilenweise über das Bild, Nachleuchten der Fluoreszenzschicht vermittelt Eindruck eines Bildes
 +  * inverse Funktionsweise kann für Kameras verwendet werden
 +  * Erkenntnisse über das Auflösungsvermögen des Auges führten zu einer Zahl von mindestens 600 Zeilen pro Bild
 +  * alle Zeilen nacheinander abzuarbeiten (progressive,​ 25 Vollbilder) führt zu Flimmern -> interlaced mode (50 Halbbilder)
 +  * Parameter von PAL
 +    * 625 Zeilen, 576 sichtbar
 +    * Vertikalfrequenz:​ 50Hz, Bilddauer 20ms
 +    * Horizontalfrequenz:​ 50 * 312,5 = 15625Hz, Zeilendauer 64 Mikrosekunden
 +    * YUV Farbmodell
 +  * Signalübertragung
 +    * Bild-Austastung-Synchronisation (BAS)
 +    * {{:​se:​BAS.jpg|}}
 +    * Bildsignal: analoge Grauwertübertragung einer Bildzeile, Signalbereich 0,7 Volt
 +    * Austastungssignal:​ Signal beim Strahlenrücklauf (horizontal vs. vertikal), Pegel unter Schwarzbereich,​ in Austastlücke werden Metainformationen übertragen (VPS, Videotext, Prüfsignale)
 +    * Synchronisationssignal:​ dient der Synchronisation jeder Bildzeile/​Halbbild,​ Übertragung in der Austastlücke
 +  * Farbsysteme
 +    * additiv: selbstleuchtende Farben (z.B. Fernseh-/​Computerbildschirme),​ RGB, alle Farben zusammen ergeben weiß
 +    * subtraktiv: beleuchtete Träger (z.B. Offsetdruck),​ CMYK, alle Farben zusammen ergeben schwarz
 +  * Farbfernsehen:​ PAL -> YUV-Modell (Y = Helligkeit/​Luminanz,​ UV = Farbdifferenz/​Chrominanz)
 +    * Y = 0,299R + 0,587G + 0,114B
 +    * U = (B - Y) * 0,493
 +    * V = (R - Y) * 0,877
 +    * gelb-grün-Anteil trägt wesentlich zum Helligkeitsempfinden bei
 +    * Kameras enthalten Rot-, Grün- und Blaufilter
 +    * Farbmonitore enthalten drei Elektronenquellen
 +    * BAS -> FBAS (F = Farbe): Übertragung der Fardifferenzen in der Austastlücke
 +  * Fernsehstandards
 +    * NTSC (National Television Systems Committee): 720x485x30, YiQ Farbmodell
 +    * PAL (Phase Alternating Line): 720x576x25, YUV Farbmodell
 +    * SECAM (sequentiel couleur a memoire): Abwandlung von PAL, YiQ Farbmodell
 +
 +===== Digitalisierung =====
 +  * bis in die 90er Jahre wurden mediale Inhalte hautpsächlich analog produziert und rezipiert (Schallplatten,​ Musikkassette,​ VHS)
 +  * Unterschiede analog/​digital
 +    * kontinuierliche,​ analoge Signale <> diskontinuierliche,​ diskrete Signale
 +    * Generationsverlust <> kein Generationsverlust
 +    * Störanfälligkeit im Übertragungskanal <> binäre Übertragung
 +  * Vorteile der Digitalisierung
 +    * Computer arbeiten digital
 +    * die Bearbeitung und Verarbeitung von Medien in digitaler Form ist einfacher
 +    * Datenkompression ist in digitalen Formaten einfacher zu realisieren
 +    * Fehlerschutz- und -korrekturmechanismen sind möglich
 +    * Kopien sind ohne Generationsverlust durchführbar (entscheidender Punkt!)
 +  * Digitalisierung von Audioinhalten
 +    * liegen als kontinuierliche,​ analoge, elektrische Signale vor -> unendlich viele Werte beliebiger genauer Auflösung
 +    * Abtastung zu bestimmten Zeitpunkten und Überführung in diskreten Wertebereich -> Digitalisierung
 +    * **Abtast-/​Samplingrate**:​ Frequenz, mit der Werte im Signal abgetastet werden
 +      * Shannon-Nyquist-Theorem:​ f<​sub>​a</​sub>​ > 2 * f<​sub>​max</​sub>​Hz
 +      * wird das SNT missachtet kann das Ausgangssignal nach der Digitalisierung nicht mehr eindeutig rekonstruiert werden
 +      * menschliches Gehör kann bis zu 20kHz wahrnehmen -> Abtastrate > 40kHz
 +    * **Quantisierung**:​ Überführung der kontinuierlichen Amplitudenwerte eines Signals in diskrete Werte
 +      * Auflösung in bit legt die Anzahl der zulässigen Werte fest
 +      * Quantisierungsfehler wird umso größer, je geringer die Auflösung ist -> bei Audio als Rauschen hörbar
 +      * Signal to Noise Ratio (SNR): SNR = 20 * log (A<​sub>​Signal</​sub>​ / A<​sub>​Rauschen</​sub>​) dB
 +      * jedes zusätzliche Bit in der Quantisierungsauflösung resultiert in einer Erhöhung der Klangdynamik um 6dB bei gleichzeitiger Reduzierung des Rauschens um 6dB
 +      * Pulse Code Modulation (PCM): linear = gleichmäßige Quantisierungsstufen,​ nicht-linear = logarithmische Quantisierungsstufen -> geringere Auflösung im unteren Wertebereich
 +    * CD-Audio: Abtastrate 44kHz, Auflösung 16bit
 +  * Digitalisierung von Bildinhalten
 +    * Zerlegung des Bildes in Raster bestimmter Auflösung, zeilenweise Abtastung
 +    * Auflösung: Anzahl Zeilen und Bildpunkte pro Zeile
 +    * Quantisierung:​ Anzahl der Graustufen pro Pixel
 +
 +===== Datenkompression =====
 +  * Ablauf
 +    * ein Signal x wird durch einen Encoder in ein komprimiertes Signal y gewandelt und durch den Übertragungskanal geschickt
 +    * der Empfänger ermittelt mit Hilfe eines Decoders das Ausgangssignal x'
 +    * bei verlustloser Kompression werden redundante Informationen gelöscht (Entropiekodierung) und x' entspricht genau x
 +    * bei verlustbehafteter Kompression werden irrelevante Informationen gelöscht und x' ist nicht gleich x
 +  * Anforderungen an Kompressionsverfahren
 +    * minimale Anzahl an bits
 +    * Eindeutigkeit / Rekonstruierbarkeit
 +    * kleinstmöglicher Unterschied zwischen Eingangs- und Ausgangssignal
 +  * Kategorien: Entropiecodierung / Quellencodierung
 +    * Reduktion redundanter Daten <> Reduktion irrelevanter Daten
 +    * universell <> an zu komprimierenden Datenstrom angepasst
 +    * verlustfrei <> verlustbehaftet
 +  * **Entropiecodierung**:​ Verfahren, bei denen Auftrittswahrscheinlichkeiten zwischen verschiedenen unabhängigen Symbolen eines Alphabets zur Reduktion der Datenmenge ausgenutzt werden
 +  * **Informationsgehalt** eines Zeichens: I<​sub>​i</​sub>​ = log (1 / p<​sub>​i</​sub>​) bit
 +  * **Entropie**:​ mittlerer Informationsgehalt,​ Summe der Produkte aus Wahrscheinlichkeiten und Informationsgehalten aller Symbole
 +  * statistische Codierungsverfahren versuchen, dem Wert H für die Entropie möglichst nahe zu kommen, Symbole mit hoher Wahrscheinlichkeit bekommen kürzere Codewörter zugewiesen
 +    * Problem bei Codewörtern ungleicher Länge: Trennzeichen sind nötig oder Verwendung von Prefix-Codes
 +    * **Huffman-Code** als Beispiel für Prefix-Codes
 +  * **Präcodierung**:​ betrachtet die Korrelation von Symbolen in einem zeitdiskreten Signal und versucht, die Intersymbolredundanz zu verringern
 +    * **Lauflängencodierung (RLE)**: nur effektiv wenn Basis des Zahlensystems klein und Anzahl der Wiederholungen (runs) groß ist
 +    * **statische Patternsubstitution**:​ bestimmte Symbolfolgen treten häufig auf und bekommen fixe kurze Codeworte zugewiesen (z.B. "​sch"​ in der deutschen Sprache)
 +      * ein Escape-Zeichen ist nötig
 +    * Lempel-Ziv-Welch (LZW): alle Symbole werden in das Ausgangswörterbuch geschrieben,​ dann wird dieses dynamisch vercollständigt
 +  * Quellencodierung
 +    * Gruppe der Dekorrelation:​ Prädiktion und Transformationscodierung
 +    * Prädiktion:​ basiert auf differentieller Codierung, versucht Aussagen über Signalwerte anhand bereits bekannter Signalwerte zu treffen
 +      * Wert wird einem Prädiktormodul zugeführt, das einen Schätzwert ermittelt, der Unterschied zum tatsächlichen Wert (tatsächlicher Wert - Schätzwert) wird dann übertragen
 +      * Nachteil: Pufferung der bisherigen Werte notwendig
 +      * einfachste Form: Differential Pulse Code Modulation (DPCM) bei Audiosignalen,​ Schätzwert = vorheriger Wert
 +      * Prädiktion bei Bilddaten: kontextabhängige Prädiktormodi z.B. zum Erkennen einer vertikalen Kante
 +    * Transformationscodierung:​ Transformierung vom Orts-/​Zeitraum in den Frequenzraum (damit kann leichter gearbeitet werden und es bieten sich mehr Möglichkeiten für Kompression)
 +      * Transformation ist nicht verlustbehaftet und reversibel
 +      * wichtige Transformationen:​ Discrete Fourier Transformation (DFT, bei Audiokompression) und Discrete-Cosinus-Transformation (DCT, bei Bild- und Videokompression)
 +
 +==== JPEG ====
 +  * 1992 von der Joint Photographic Experts Group (Gründung 1985 als Projektgruppe der ITU) spezifiziert,​ große Verbreitung durch das Internet
 +  * hybrides Kompressionsverfahren,​ Bildsignal durchläuft verschiedene Codierungsschritte
 +    * Vorverarbeitung (Zerlegung in Makroblöcke,​ Umwandlung in YCrCb) -> Transformation (DCT) -> Quantisierung (der Koeffizienten) -> Entropiecodierung (RLE und Huffman)
 +    * {{:​se:​JPEGEncoder.jpg|}}
 +    * Zerlegung in Farbkomponenten (YCbCr) mit 8bit für jeden Farbwert, Subsampling 4:2:0 -> Farbinformationen können vom menschlichen Auge nicht so gut unterschieden werden wie Helligkeitsinformationen
 +    * Transformation jeder Komponente in 8x8-Makroblöcken mittels DCT
 +      * die 64 Bildpunkte werden in 64 Frequenzbereiche umgeformt
 +      * der 0,​0-Koeffizient wird DC-Koeffizient genannt und steht für den mittleren Grauwert des Blocks
 +      * die übrigen Koeffizienten heißen AC-Koeffizienten und überlagern die Grundfrequenz des DC-Koeffizienten
 +      * diese Transformation hat noch keinen Informationsverlust zur Folge
 +    * (verlustbehaftete) Quantisierung der (Fließkomma-)Koeffizienten mittels einer Quantisierungsmatrix
 +      * es können unterschiedliche Matrizen für Luminanz und Chrominanz verwendet werden
 +      * der Quantisierungsfaktor bestimmt maßgeblich die Datenmenge und die subjektive Qualitätseinstufung des Bildes
 +    * die DC-Koeffizienten durchlaufen einen Prädiktor und der Schätzfehler wird übertragen
 +      * dieser wird Huffman-codiert mittels einer Tabelle, die den (großen) Wertebereich des DC-Koeffizienten in 12 Kategorien einteilt
 +      * es muss nun ein Symbol für die Kategorie des Schätzfehlers übertragen werden und eines für den konkreten Wert
 +      * die Kategorie legt gleichzeitig die Anzahl der benötigten Bits für den konkreten Wert fest
 +      * {{:​se:​CodeTabelleDCKoeffizienten.jpg|}}
 +        * Beispiel für DC[i] Wert 78 (Luma): Bitstrom 11110|1001110 (Kategorie 7, Wert 78)
 +        * Beispiel für DC[i+1] Wert 66 (Luma), DIFF = 66 - 78 = -12: Bitstrom 101|0011 (Kategorie 4, Wert -12 = -15 + 3)
 +    * die AC-Koeffizienten werden Lauflängen-codiert
 +      * sie nehmen üblicherweise kleine Werte an, die sich nur marginal unterscheiden
 +      * sie werden im Zick-Zack-Muster ausgelesen, da sich die höherfrequenten Anteile im oberen linken Bereich des Blocks konzentrieren -> höhere Wahrscheinlichkeit für Nullwerte am Ende des Vektors der AC-Werte
 +      * auch die AC-Koeffizienten,​ die nicht 0 sind, werden mit zwei Symbolen codiert: eine Kategorie und die Anzahl der benachbarten Nullen
 +        * Sonderwerte:​ 15/0 (ZRL, 16 Nullwerte), 0/0 (EOB)
 +      * {{:​se:​CodeTabelleACKoeffizienten.jpg|}}
 +        * Beispiel AC 2|0|0|0: Bitstrom 111110111|10 (Kategorie 2, 0-Lauflänge 3 -> 3/2, Wert 2)
 +    * Verarbeitungsmethoden
 +      * sequentiell:​ ein einziger Durchlauf, blockweise von links oben nach rechts unten -> jeder Block wird unabhängig verarbeitet,​ was zu einer großen Speichereffizienz führt
 +      * progressiv: mehrere Durchläufe,​ erst grob aufgelöst, dann feiner -> Overhead, da für jede Progression die Position der Blöcke gespeichert werden muss
 +        * spektrale Selektion: zuerst werden die tieffrequenten Koeffizienten übertragen,​ dann die hochfrequenten
 +        * schrittweise Approximation:​ die obersten Bits aller Koeffizienten werden zuerst gesendet
 +
 +==== Bewegtbildkompression ====
 +  * zusätzlich zur Bildkompression die 4. Dimension Zeit
 +  * **Framerate**:​ Geschwindigkeit der Bildabfolge in Frames (Einzelbilder) pro Sekunde
 +  * **Intraframecodierung**:​ isolierte Komprimierung der Einzelbilder (z.B. Motion-JPEG)
 +  * Ziel eines jeden Video-Codecs muss es sein, eine höhere Kompression als die Intraframecodierung zu erreichen und die Interframeredundanz zu eliminieren
 +  * erster Ansatz: nur Veränderungen zwischen den Frames übertragen (Differenzcodierung)
 +  * besser: Bewegungserkennung und Übertragung der Bewegungsvektoren
 +    * komplexe Bewegungen wie Rotationen, Skalierungen und Verformungen könnten zwar berechnet werden, das ist aber zu aufwändig, sodass meist nur Verschiebungen von Objekten erkannt werden
 +    * schwierige Bildteile werden absolut codiert
 +  * Blockmatching
 +    * Aufteilung des Bildes in 16x16-Blöcke (Kompromiss aus Genauigkeit und Aufwand)
 +    * Finden einer Verschiebung durch Ermittlung des geringsten mittleren quadratischen Fehlers zwischen Ausgangsblock und neuem Bild
 +      * Festlegen der Schwellenwerte δ und Δ
 +        * MSE < δ: Codierung durch Verschiebungsvektor
 +        * δ < MSE < Δ: Codierung durch Verschiebungsvektor und Prädiktionsfehler -> Differenzcodierung
 +        * Δ < MSE: absolute Codierung
 +      * alle möglichen Verschiebungen werden aus Performancegründen nicht betrachtet
 +    * Methoden
 +      * logarithmische Suche (kommt geringfügig schneller zum Ziel)
 +      * 3-Stufen-Suche (fest vorgegebene Anzahl an Schritten)
 +      * {{:​se:​SuchstrategienBlockmatching.jpg|}}
 +      * neuere Methoden berechnen auch Halb- und/oder Viertelpixel (Interpolation) um eine noch genauere Verschiebung zu ermitteln
 +    * zukünftige Inhalte lassen sich meist schwer vorhersagen,​ weshalb es sinnvoll ist, auch spätere Bilder zum Blockmatching zu verwenden (Bidirektionale Prädiktion)
 +      * {{:​se:​PraediktionBlockmatching.jpg|}}
 +    * Arten von Frames: I = intraframecodiert,​ P = Vorwärtsprädiktion,​ B = bidirektionale Prädiktion
 +
 +
 +==== MPEG ====
 +  * 1988 enstand die Motion Picture Experts Group mit dem Ziel ein Verfahren für die Video- und Audiokompression zur Verwendung auf CD-ROMs zu standardisieren
 +  * 1993 wurde MPEG1 offiziell freigegeben
 +    * nur der Bitstrom und die Funktionsweise des Decoders wurde spezifiziert,​ nicht jedoch, wie ein Encoder zum Bitstrom gelangt -> Möglichkeiten zur Optimierung durch verschiedene Implementierungen
 +    * die Optimierung durch diese Konkurrenz ist beachtlich: 1995 wurden noch 6MBit/s für einen optisch ansprechenden Bitstrom benötigt, heute nur noch 2MBit/s ohne den Decoder wechseln zu müssen
 +  * MPEG1 sollte Videodaten auf Video-CDs bereitstellen -> max. 1,5MBit/s (einfache CD-ROM-Geschwindigkeit) mit VHS-Qualität
 +    * Auflösung ist die Hälfte von PAL: 352x288 oder 352x240 (NTSC)
 +    * jeder Decoder sollte mindestens unterstützen
 +      * Horizontalauflösung <= 768
 +      * Vertikalauflösung <= 576
 +      * Makroblöcke pro Bild <= 396
 +      * Frames pro Sekunde <= 30
 +      * Bitrate <= 1,86MBit/s
 +    * Bild muss für PAL und NTSC skaliert werden
 +    * {{se:​AufbauMPEGEncoder.jpg|}}
 +  * MPEG1 spezifiziert...
 +    * Systemschicht:​ Verfahren zum Zusammenfassen der Video- und Audiodaten zu einem gemeinsamen Transportstrom,​ Organisation in Paketstruktur
 +    * Videokompression
 +      * Sequenzstrom ist aufgeteilt in GOPs, die immer mit einem I-Frame beginnen (Anzahl und Abfolge von B- und P-Frames stehen im GOP-Header und sind nicht durch MPEG spezifiziert)
 +      * {{:​se:​MPEGGroupOfPictures.jpg|}}
 +      * Frames sind unterteilt in Slices, die die Makroblöcke des Bildes enthalten
 +      * Makroblöcke bestehen aus 4 8x8-Luminanzblöcken und 2 8x8-Chrominanzblöcken (-> Farbsubsampling 4:2:0)
 +      * {{:​se:​BitdatenstromMPEG.jpg|}}
 +    * Audiokompression
 +      * Layer 1: CD-I, DCC
 +      * Layer 2: DAB (digitales Radio)
 +      * Layer 3: MP3
 +    * Testvorschriften
 +    * Software-Referenzmodell
 +  * 1990 wurde mit der Arbeit an MPEG2 begonnen
 +    * bessere Kompressionsraten bei höherer Bildqualität
 +    * Ziel Anpassbarkeit an unterschiedliche Medien und Übertragungsgeschwindigkeiten
 +    * 1998 verabschiedet
 +    * abwärtskompatibel zu MPEG1
 +    * insg. 10 Parts, zusätzlich zu den 5 von MPEG1
 +      * Steuerung von digitalen Speichermedien (Einsatz im digitalen Fernsehen, Übertragung interaktiver Inhalte)
 +      * nicht abwärtskompatible Audiokompressionsverfahren (Advanced Audio Coding)
 +      * Real Time Interface
 +      * DSM-CC Conformance
 +      * Intellectual Property Management & Protection (IPMP)
 +    * Levels: heben die starre Bildauflösung auf und ermöglichen höhere Auflösungen (bis zu 1920x1152)
 +    * Profiles: kennzeichnen den Aufbau der GOPs und die Skalierbarkeit des Films
 +      * Base Layer hochverfügbar,​ Enhancement Layer zur optionalen Qualitätssteigerung
 +      * SNR-scaling:​ unterschiedliche Bildqualität bei gleicher örtlicher Auflösung
 +      * spatial-scaling:​ unterschiedliche Auflösung, z.B. PAL und HDTV über einen Kanal
 +      * temporal-scaling:​ Basisstrom enthält weniger Bilder, Zwischenframes werden interpoliert
 +      * hybrid-scaling:​ Kombination aus obigen
 +    * Farbsubsampling kann variiert werden: 4:2:0, 4:2:2, 4:4:4
 +    * es können auch Halbbilder übertragen werden
 +    * Audio: AAC, 5.1
 +    * Datenströme
 +      * Programmstrom zur Speicherung auf sicheren Medien, lange Datenpakete
 +      * Transportstrom zur Übertragung auf fehleranfälligen Kanälen, kurze Pakete, Fehlerkorrektur und Redundanz
 +  * die Arbeit an MPEG3 wurde eingestellt,​ da die anvisierten Optimierungen auch mit MPEG2 möglich waren
 +  * 2000 wurde mit der Arbeit an MPEG4 begonnen
 +    * Ziel: objektorientiertes Format mit Fokus auf interaktive Inhalte, synthetisch erzeugte Inhalte (Animationen) und Streaming
 +    * universeller Codec für synthetische und natürliche Inhalte und nahezu alle Speicher- und Übertragungskanäle
 +    * unterstützt interaktive,​ multimediale Computersysteme
 +    * ermöglicht Kombination von synthetischen und natürlichen Szenen
 +    * unterstützt Multiperspektiven
 +    * Objektorientierung:​ Information wird segmentiert und als Aufbau von Objekten verstanden, z.B. Hintergrund und Vordergrund können unterschieden werden -> Compositings,​ wichtige Bildinhalte werden schwächer komprimiert,​ Alphamasken grenzen Objekt zu ihrer Umgebung ab
 +    * Videoszenen werden baumförmig segmentiert (Binary Format for Scenes, BIFS)
 +      * {{:​se:​BIFS.jpg|}}
 +    * Sprache kann durch Sprachsynthese und MIDI-Daten codiert werden
 +    * Optimierung der Videokompression:​ Bewegungsschätzung im Viertelpixel-Bereich,​ Block-Matching kann durch globale Bewegungsschätzung ersetzt werden, Luminanz- und Farbcodierung sind mit frei wählbaren Quantisierungstabellen belegbar
 +    * eigener Objekttyp für Hintergründe,​ der größer sein kann als das sichtbare Bild und verschoben werden kann
 +    * 17 Parts
 +      * Delivery Multimedia Integration Framework (DMIF): Sitzungs- und Streamingprotokoll,​ übertragen werden Pointer auf die Inhalte anstatt Download
 +    * Umfang ist so groß, dass er kaum umgesetzt werden konnte -> Videokomprimierungsanteil wurde 2003 gemeinsam mit der ITU spezifiziert:​ H.264/AVC
 +      * Gemeinsamkeiten mit früheren Standards
 +        * Luma-Chroma-Subsampling 4:2:0
 +        * Makroblöcke
 +        * Slices als Sequenz von Makroblöcken
 +        * I-, B-, P-Frames
 +        * Voll- und Halbbildmodus
 +      * Verbesserungen
 +        * Makroblöcke können bis auf 4x4 unterteilt werden
 +        * Bewegungsvektoren mit Viertelpixel-Genauigkeit
 +        * Bewegungsvektoren dürfen über die Bildgrenzen hinausragen
 +        * multiple Referenzbilder für Bewegungsschätzung sind möglich
 +        * Prädiktion in 9 verschiedenen Modi (horizontal,​ vertikal, diagonal in mehreren Abstufungen)
 +        * Deblocking-Filter reduziert Blockartefakte
 +        * Referenzierung wird von der Reihenfolge der Bilder losgelöst
 +        * gewichtete Mittelung von Referenzblöcken bei bidirektionaler Prädiktion
 +        * Umschalten von Vollbild- und Halbbild-Modus auf Makroblock-Ebene
 +        * örtliche Prädiktion von Blöcken
 +  * {{:​se:​EvolutionsstufenMPEG.jpg|}}
 +    * MPEG1: Video auf CD-ROM, VHS-Qualität,​ 1,5MBit/s
 +    * MPEG2: TV/​HDTV/​DVD,​ Qualitätsprofile,​ 4-8MBit/s
 +    * MPEG4: universelle Anwendung, objektbasiert,​ 5kBit/​s-4MBit/​s
 +
 +===== Audiokompression =====
 +  * Audiodaten liegen als zeitdiskreter Bitstrom von Samplingwerten vor -> Transformation mittels FFT in den Frequenzraum
 +  * mehrere Samples werden blockweise (Frames) transformiert (bei MP3 Fensterbreite 1152 Samples)
 +  * Filterband teilt das Signal in schmalbandige Frequenzbänder auf
 +    * Maskierungen und die Tatsache, dass Menschen komplexe Schallsignale in Gruppen wahrnehmen, führen zu 24 kritischen Frequenzbändern im Bereich zwischen 16Hz und 16kHz mit ungleicher Breite (ansteigend mit Frequenz)
 +    * MP3 verwendet 32 gleichmäßige Frequenzbänder mit 6 oder 18 möglichen Subbändern (je nach Filterbank)
 +  * die Komprimierung des Signals findet statt, indem die Frequenzbänder durch ein psychoakustisches Modul geschleust werden
 +    * Ermittlung des Leistungsdichtespektrums und der Frequenz des Spitzenpegels im Band -> Maskierungsschwelle
 +    * die Maskierungsschwelle wird mit der Ruhehörschwelle verrechnet und heraus kommt die minimale Bitanzahl pro Band, die das Signal (ohne Rauschen über der Hörschwelle) quantisiert
 +      * optimales Subsampling,​ das das menschliche Ohr nicht wahrnehmen kann
 +    * das Ergebnis geht in die Quantisierung und Codierung der Teilfrequenzbänder ein (Mono und Stereo bis zu 224kbit/s)
 +    * das Verfahren ist stark asymmetrisch (Decodierung ist weniger aufwändig als Codierung)
 +  * Metainformationen:​ CRC-Checksummen,​ ID3-Tags
 +  * Stereo-Signale
 +    * Joint Stereo: Mono-Summensignal und Differenzsignale mit Panoramaschwankungen
 +    * Intensity Stereo: verlustbehaftet,​ untere Frequenzbereiche (Bässe) werden mono-codiert da die Ortung durch das menschliche Ohr schlecht ist
 +  * Dateiaufbau:​ jeder Frame hat eigenen Header und Prüfsummen -> Streaming möglich
 +  * {{:​se:​QualitaetsstufenAudio.jpg|}}
 +  * MP3: MPEG1 Layer 3
 +    * 33, 44.1, 48kHz
 +    * 32-224kbit/​s
 +    * {{:​se:​MP3Encoder.jpg|}}
 +  * AAC: bessere Komprimierung und Multikanalunterstützung
 +    * MPEG2 und 4
 +    * 5.1-Kanäle
 +    * geringere Bandbreiten (8kbit/s) und Abtastraten (16kHz) möglich
 +    * vergleichbare Qualität zu MP3 mit 70% der Bitrate
 +    * nicht abwärtskompatibel zu MP3
 +    * Aufteilung des Signals in 1024 Teilbänder und Transformation mittels DCT
 +    * Temporal Noise Shaping (TNS)
 +      * Kompensierung von Quantisierungsfehlern (Rauschen) im Zeitbereich durch Prädiktion insb. bei Sprache
 +      * Verrechnung der Überlappung an den Grenzen der Frequenzbänder
 +    * Rückwärtsprädiktion verringert die Codewortlängen
 +    * Mehrkanalcodierung (M/S): Monosignal und Differenz der Stereomitte in weiteren Kanälen
 +    * Quantisierung durch Gleitkomma-Quantisierung führt zu konstanterem SNR
 +
 +===== Dateiformate =====
 +==== Text ====
 +  * **Typographie**:​ Gestaltungsmuster und -regeln für Schriftdokumente und Ausgestaltung von Schriftarten (Fonts) und Zeichen (Glyphen)
 +  * **Zeichensatz**:​ "​Übersetzungstabelle"​ von Symbolen/​Textzeichen in Binärwörter
 +  * ASCII: Zeichensatz für englisches Alphabet, Zahlen, Steuerzeichen (1byte)
 +    * Anpassungen für bestimmte Länder mit Sonderzeichen (z.B. Umlaute) z.B. ISO-8859-1 (westeuropäisch),​ ISO-8859-2 (osteuropäisch)
 +      * Abwandlung durch Microsoft: CP-1252
 +    * Probleme, wenn spezifischer Zeichensatz nicht installiert ist -> Zeichen werden falsch angezeigt
 +  * Unicode: Multi-Byte-Zeichensatz,​ der alle Sprachen der Erde abdecken soll (Unicode 5: 99.089 Zeichen)
 +    * bis zu 4byte wäre nötig, um alle Zeichen zu codieren -> Einführung von UTF-8 (8-bit Unicode Transformation Format)
 +    * UTF-8 kann als Multi-Byte-Zeichensatz mit variabler Codewortlänge verstanden werden
 +    * die wichtigsten Zeichen (=ASCII) werden mit 1byte codiert
 +    * sprachspezifische Sonderzeichen werden dann mit 2-4byte codiert
 +    * es sind bis zu 8byte pro Zeichen möglich
 +  * Schriften
 +    * **Schriftart**:​ kompletter Satz von Schriftzeichen einer bestimmten Ausgestaltungsform (z.B. Arial, Times)
 +    * **Schriftschnitt**:​ Repräsentationsform einer Schriftart (z.B. fett, kursiv)
 +    * **Schriftfamilie**:​ Schriftart inkl. Schnitte
 +    * **Schriftgruppe**:​ bestimmte Ausgestaltungsform einer Schriftart (z.B. Groteske, Antiqua)
 +  * Serifen: Querstriche an der Grund-, Mittel- und Oberlinie, die dem Auge Halt geben (Grund- und Mittellinie werden betont) und das Lesen längerer Texte vereinfachen
 +  * {{:​se:​TypographischeMasse.jpg|}}
 +  * Schriftdateiformate
 +    * Bitmap: Glyphen sind gerasterte Bilder
 +    * vektorbasiert:​ Skalierbare Beschreibung der Glyphen durch Stützpunkte,​ Liniensegmente und Kurvenbeschreibungen
 +      * True Type (TTF): spezifiziert von Adobe, Einsatz in Windows
 +      * Type1 Fonts (Postscript Fonts): spezifiziert von Adobe, besteht aus Klartextdateien (AFM, AMFM, ACFM), werden kompiliert in PFB (binär) oder PFA (ASCII), waren Standard auf Mac
 +      * OpenType (OTF): entwickelt von Adobe und Microsoft, Erweiterung von True Type, kann als Container für Type1 dienen
 +  * LaTeX: Markup-Sprache zur Textgestaltung,​ Stärke: mathematische Formeln, Trennung von Text und Gestaltung, muss kompiliert werden (z.B. in Postscript, PDF, HTML)
 +  * RTF (Rich Text Format): Austauschformat für Textverarbeitungssysteme,​ Klartext-ASCII-Dateien ohne Semantik, globale Einstellungen im Kopf der Datei, Befehle werden durch \ eingeleitet,​ Text durch {} abgetrennt
 +
 +==== Bilder ====
 +  * Rasterbilder
 +    * Aufteilung in rechteckiges Raster, Rasterpunkt = Pixel mit Informationen zur Helligkeit und Farbe
 +    * Auflösung: räumliche Dichte der Pixel in horizontaler und vertikaler Richtung, Einheit dpi (dots per inch)
 +    * Serialisierung zeilenweise von oben links nach unten rechts
 +    * Pixel sind rechteckig (nicht zwangsläufig quadratisch,​ z.B. bei PAL 1:1,2)
 +    * Skalierung nur durch Interpolation möglich -> Verlust der Auflösung
 +  * Bitmap: verlustfreie Speicherung mit/ohne Lauflängencodierung,​ wird immer zeilenweise gelesen
 +    * Header: Datentyp und Dateigröße
 +    * BITMAP_INFO:​ Abmessungen des Bildes, Farbtiefe, Codierungsart
 +    * Nutzdaten
 +  * TIFF (Tagged Image File Format)
 +    * spezifiziert 1980 von Aldus, HP, Microsoft
 +    * besteht aus variabler Anzahl von Blöcken, die im Hauptdatenstrom per Zeiger referenziert werden -> beliebige Reihenfolge der Nutzdaten
 +    * Blöcke enthalten Tags (12byte) mit Informationen zum Bild (z.B. Höhe, Breite, bit/Pixel)
 +    * keine oder verlustlose Komprimierung möglich: RLE, LZW, Baseline
 +    * wird blockweise gelesen (z.B. nur sichtbarer Bereich bei Bildbearbeitung)
 +    * mehrere Farbsysteme (RGB, CMYK) und Alphakanäle möglich
 +    * TIFF 6.0: Rechte bei Adobe, kann mehrere Bildebenen speichern
 +  * GIF (Graphics Interchange Format): 1987 von UNISYS und Compuserve vorgestellt
 +    * variable Farbtabellen mit Größen der Zweierpotenzen bis 256 (global oder je Rasterblock),​ Farben aus RGB frei wählbar
 +    * eine Farbe kann als transparent definiert werden, keine Alphakanäle
 +    * seit GIF89a können Animationen als Bildfolgen definiert werden
 +    * Komprimierung mit LZW
 +    * Interlaced-Modus
 +    * bis 2004 lizenzpflichtig
 +  * PNG (Portable Network Graphics Format)
 +    * 48bit pro Pixel -> Echtfarbfotos (nur RGB)
 +    * lizenzfrei
 +    * Vorwärtsprädiktion und LZW
 +    * wie GIF: Farbtabellen,​ Interlaced-Modus,​ allerdings keine Animationen
 +    * Alphakanäle mit 8/16bit Genauigkeit
 +  * JPEG2000
 +    * anstatt DCT werden Wavelets verwendet
 +      * Nachteile DCT: bei Wertesprüngen werden viele Oberwellen benötigt, Amplituden von Cosinus nähern sich im Unendlichen keinem Grenzwert an
 +    * Verwendung von Hoch- und Tiefpassfiltern und arithmetischer Codierung
 +    * bei vergleichbarer Qualität 30% bessere Kompression als JPEG
 +    * Regions of interest: Bildbereiche,​ die weniger stark komprimiert werden
 +    * Resync-Marker erlauben Wiederaufnahme unterbrochener Übertragungen
 +    * Artefakte an Blockgrenzen treten nicht so stark hervor
 +    * stufenloser Übergang von verlustfreier zu verlustbehafteter Kompression wird unterstützt
 +  * vektorbasierte Formate
 +    * Grafik als Kombination aus Formen und Flächen (Linien, Kreise, Bezierkurven),​ Linienfarben und Füllungen mit Farbverläufen möglich
 +    * viele proprietäre Formate
 +    * Austauschformate im Bereich CAD/CAM: IGES (Initial Graphics Exchange Standard), DWF (Drawing Interchange Format)
 +  * SVG (Scalable Vector Graphics)
 +    * XML-Format, 2001 vom W3C spezifiziert
 +    * fehlende Unterstützung im Internet Explorer
 +    * wichtigste grafische Primitive: <​path>​ mit Attribut d für den Pfadverlauf (Großbuchstaben = absolute Angaben, Kleinbuchstaben = relative Angaben)
 +      * m = moveto, l = lineto, q = quadratische Bezierkurve (Stützpunkt,​ Zielpunkt), c = kubische Bezierkurve (2 Stützpunkte,​ Zielpunkt), z = Pfad schließen
 +    * Animationen sind möglich (Ableitung von Synchronized Multimedia Integration Language, SMIL)
 +    * Filter wie Gaußscher Weichzeichner sind möglich
 +    * Interaktion durch JavaScript ist möglich
 +  * Postscript
 +    * Seitenbeschreibungssprache von Adobe (1984)
 +    * ist eine eigenständige Programmiersprache
 +    * markiert Wendepunkt in der Digitalisierung des Druckgewerbes
 +    * Container für Text, Grafiken etc.
 +    * wird von einem Interpreter in Rasterdaten umgewandelt (z.B. direkt im Laserdrucker)
 +    * CUPS baut auf Postscript auf
 +    * wird ständig erweitert, kann JPEG verarbeiten,​ verschiedene Farbräume und Duplexmodi verwalten
 +    * abwärtskompatible ASCII-Dateien
 +    * Einbindung von Postscript-Dateien in DTP: EPS (Encapsulated Postscript),​ nur eine Seite je Datei möglich, Bounding Box beschreibt Größe
 +  * PDF (Portable Document Format)
 +    * von Adobe 1993 im Zusammenhang mit Acrobat vorgestellt
 +    * Ziel: Vorantreiben des papierlosen Büros durch Bereitstellung eines Formats für digitale Dokumente, Vereinfachung der Druckvorstufe
 +    * proprietäres Format, aber offengelegt und ISO-spezifiziert
 +    * Features in Version 8
 +      * Speicherung als komprimierter Byte-Code
 +      * Aufnahme von Metainformationen
 +      * Einbetten von Schriftarten
 +      * Hypertextkonzepte
 +      * Einbettung beliebiger anderer Dateien
 +      * elektronische Formulare mit interaktiven Formularelementen
 +      * Sicherheitsmechanismen
 +      * digitale Zertifikate und Unterschriften
 +      * Werkzeuge zur Überarbeitung und Korrektur von Dokumenten
 +
 +==== Audioformate ====
 +  * WAV (Wave)
 +    * von IBM und Microsoft entwickelt
 +    * unkomprimiert oder mit verlustloser Kompression
 +    * beginnen mit Format-Chunk (Anzahl Kanäle, Samplingrate etc.)
 +    * danach folgen Datenchunks in PCM oder ADPCM (Adaptive Differential PCM) oder mit Dynamikkompression (a-Law, μ-Law)
 +    * zwischendurch können Fact-Chunks mit Sekundärdaten zum Musikstück oder Cue-Point-Chunks zur Synchronisation eingestreut sein
 +  * AIFF (Audio Interchange Format)
 +    * Verfahren von Apple, gleiches Verfahren wie bei Wave
 +    * kann bis zu 6 Kanäle und MIDI-Chunks aufnehmen
 +  * WAV und AIFF sind gängig bei Produktionen,​ da keine Generationsverluste auftreten und die Daten unkomprimiert vorliegen
 +  * MP3 und AAC unterliegen Patentschutz
 +  * Ogg: Open-Source-Datenformat für Audio- und Videodaten
 +    * Ogg-FLAC (Free Lossless Audio Codec)
 +      * verlustfreie Kompression bis zu 5:1
 +      * Unterteilung in Blöcke mit bis zu 65536 Samples und Prädiktion aus vier möglichen Modellen
 +      * Speicherung des Fehlers mit Rice-Codes
 +      * umfangreiche Taggingmöglichkeiten
 +    * Ogg-Vorbis
 +      * verlustbehaftet
 +      * 25% bessere Kompression im Vergleich zu MP3
 +      * 256 Audiokanäle
 +      * keine Begrenzung der Datenrate
 +
 +==== Videocontainer und -codecs ====
 +  * AVI und WMV
 +    * Container für Videos unter Windows
 +    * stellen Header und Body bereit
 +    * machen keine Vorgaben für den Codec
 +    * mögliche Codecs
 +      * Cinepak: Keyframes und Differenzbilder,​ Rate 7:1
 +      * Indeo: von Intel, stark asymmetrisch,​ Rate 7:1
 +      * Microsoft Video-1: Rate 2:1
 +      * DivX: Hack des Microsoft MPEG4-Codecs,​ Verwendung zunächst strafrechtlich verfolgt, inzwischen frei von proprietärem Code
 +      * Xvid: ging 2002 durch Zusammenschluss der Programmierer von OpenDivX hervor
 +  * Quicktime
 +    * Multimedia-Framework von Apple (API und Dateiformat)
 +    * kann Audio-, Bild- und Videodateien und Animationen aufnehmen
 +    * hochintegrative Antwort auf Vielzahl verschiedener Codecs
 +
 +==== Medienproduktion ====
 +  * Einsatzzwecke
 +    * Produktion von Hörspielen,​ Radiobeiträgen
 +    * Musikproduktion
 +    * Vertonung für Film und Fernsehen
 +
 +=== Audio ===
 +  * Mikrofon: wandelt Schallwellen der Luft in elektrische Signale
 +    * dynamische Mikrofone
 +      * umgekehrter Lautsprecher,​ Membran schwingt, angehängter Magnet bewegt sich in Kupferspule -> Induktion
 +      * sehr robust, kompakte Bauform
 +      * durch ihre akustische Trägheit geeignet für Aufnahme lauter Schallereignisse (Trompete, Schlagzeug etc.)
 +      * Frequenzgang mittenbetont
 +    * Kondensatormikrofone
 +      * Schall verändert Abstand zweier metallischer,​ elektrisch geladener Membranen
 +      * erzeugte Spannung ist sehr gering -> Verstärkung nötig -> Phantomspeisung 48V
 +      * sehr empfindlich,​ feinerer Klang als dynamische Mikrofone
 +    * **Richtcharakteristik**:​ Schallempfindlichkeit rings um den Mittelpunkt (die Membran) des Mikrofons
 +      * {{:​se:​RichtcharakteristikaMikrofone.jpg|}}
 +  * Mischpult
 +    * zentrale Schaltstelle im Studio, führt mehrere Signalquellen zusammen
 +    * definiert Routen für die Signale, passt Stimmen an, führt Ausgabe den Lautsprechern zu
 +    * es gibt analoge, digitale und virtuelle Mischpulte
 +    * Klassifizierung nach Anzahl Ein-/​Ausgänge
 +    * Eingänge
 +      * Line und Mikro (wird stärker verstärkt),​ Potentiometer regelt jeweilige Verstärkung
 +      * Kanal-Insert:​ schickt das Signal durch ein Peripheriegerät (Effekte)
 +      * Aux-Weg: schickt mehrere Signale durch Effekte, Anteil des Effekts kann durch Potentiometer gesteuert werden
 +      * Equalizer: 3-4 Bandpassfilter für Verstärkung/​Dämpfung einzelner Frequenzbereiche
 +      * Kanalregler:​ regelt die Signalstärke des Kanals in der Stereosumme
 +      * Subgruppen: ermöglichen Abmischen mehrerer Kanäle (z.B. Schlagzeug) gleichzeitig
 +  * Audiospuren müssen getrennt verwaltet werden können (für weitreichende Klangformung)
 +    * früher wurden Mehrspurgeräte verwendet, heute digitalisierte Speicherung auf Festplatten
 +    * Vorteile der Digitalisierung
 +      * leichter zu verarbeiten und zu handhaben
 +      * Kapazität der Festplatten kann beliebig gesteigert werden
 +      * Anzahl der Aufnahmekanäle ist nur durch eingesetzte Soundkarte begrenzt
 +  * Ausstattungsmerkmale moderner Audiokarten
 +    * mehrere Ein- und Ausgänge
 +    * Analog-Digital-Wandler mit 96kHz und 24bit
 +    * Mikrofoneingänge mit Vorverstärker und Phantomspeisung
 +    * MIDI-Anschluss
 +  * MIDI (Musical Instrument Digital Interface)
 +    * 1981 von Roland eingeführte serielle Schnittstelle zur Steuerung von digitalen Musikinstrumenten (Keyboards, Synthesizer)
 +    * Steuerdaten zur Klangerzeugung und -aufnahme: Anschlag + Tonhöhe, Anschlagsstärke,​ Tonende, Controllerdaten
 +      * keine Audioinhalte!
 +    * Interface: 5-polige Rundbuchse mit 16 Kanälen
 +    * Daten
 +      * Channel Mode Messages: Steuerung von Musikgeräten
 +      * System Common Messages: Auswertung durch alle Empfänger am Interface
 +      * System Real-Time Messages: Synchronisation der Geräte
 +      * System Exclusive Messages: Hersteller-/​Geräte-spezifische Daten (Versionsupdates etc.)
 +    * {{:​se:​DatenpaketeMIDI.jpg|}}
 +      * Daten liegen nur eventorientiert (beim Auftritt eines musikalischen Ereignisses) an
 +      * Statusbyte enthält Ereignisart und MIDI-Kanal
 +      * Datenbytes enthalten Werte des Ereignisses (2bytes bei Pitch Bend)
 +    * {{:​se:​MIDIPorts.jpg|}}
 +  * Synthesizer
 +    * bereits 1900 wurde mit elektrischer Klangerzeugung experimentiert
 +    * {{:​se:​BlockschaltbildSynthesizer.jpg|}}
 +      * Oszillator: erzeugt (obertonreiches) kontinuierliches Signal (Wellenform:​ Sinus, Dreieck, Rechteck, Sägezahn)
 +      * Filter: formt Signal im Frequenzraum (Tiefpass-/​Hochpassfilter eliminieren hohe bzw. tiefe Frequenzen)
 +      * Verstärker:​ passt die Lautstärke an -> dynamisches Spiel
 +      * ADSR-Hüllkurve:​ beschränkt das Signal zeitlich (sonst würden alle Töne unendlich lange gehalten)
 +        * Attack: Zeit vom Anschlag des Tons bis zum vollen Signalpegel des Verstärkers
 +        * Decay: Zeit vom vollen Signalpegel bis zum Sustain (Verweilpegel)
 +        * Sustain: Lautstärkepegel,​ der nach der Decay-Zeit gehalten werden soll
 +        * Release: Zeit vom Sustain bis zum Nullpegel (Ausklingzeit)
 +      * Mixer: Mischen mehrerer Klangfarben aus der Verarbeitungskette
 +  * Klangeffekte
 +    * Audiomaterial muss gekonnt bearbeitet werden (Abmischung,​ gleichmäßige Abdeckung des Frequenzspektrums,​ Effekte)
 +    * Limiter: begrenzt Signal strikt auf eingestellte Lautstärkeschwelle
 +    * Kompressor: nach Überschreiten der Schwelle (Threshold) kann ein Verhältnis (Ratio) angegeben werden, zu dem das Signal abgeschwächt wird
 +      * Abstand zwischen lauten und leisen Tönen wird verringert -> kompakterer Klang, geringere Dynamik
 +    * Expander: Dynamik wird entgegengesetzt zum Kompressor erhöht
 +    * Noisegate: unterdrückt Rauschen durch Sperren eines Signals unter einem bestimmten Pegel
 +    * Hall: verleiht Sprache und Musik einen räumlichen Eindruck
 +    * Echo: periodische Widerholung des Signals
 +    * Chorus: doppelt das Signal leicht phasenverschoben und führt zu dichterem Klang
 +    * Verzerrer: bilden das analoge Zerren von übersteuerten Eingangskanälen nach
 +  * Werkzeuge und Software
 +    * Sample-Editoren:​ Bearbeitung digitaler Audiodateien
 +      * Schneiden, Zusammenfügen der Dateien in Wellenform
 +      * Steinberg Wavelab, Sonic Foundry'​s Sound Forge
 +    * Sequenzer: Musikproduktion
 +      * Aufzeichnen und Senden von MIDI-Daten
 +      * Einbindung von Synthesizern,​ Hard-Disk-Recording,​ Mischen
 +      * Steinberg Cubase, Apple Logic, Digidesign ProTools
 +      * Nachvertonung:​ Steinberg Nuendo
 +    * Mastering-Software:​ Tonstudio im Rechner (Effekte, Mehrkanal, Mischen, Mastering)
 +
 +=== Foto, Video und DTP ===
 +  * **Desktop Publishing (DTP)**: Produktion von Druckerzeugnissen (Bücher, Zeitschriften,​ Flyer etc. vereinen Grafik, Foto und Text) mit Hilfe von Computertechnik
 +  * analoge Kameras
 +    * chemisches Filmmaterial,​ Entwicklung des Negativs zum Positiv, Kenngröße Lichtempfindlichkeit (ASA)
 +    * Sucherkameras:​ Sucher getrennt vom Linsensystem -> Parallaxe (Versatz) zwischen Sucher und Optik
 +    * Spiegelreflexkameras:​ Spiegel leiten die Lichtstrahlen der Optik in den Sucher
 +    * Unterscheidung nach
 +      * Kleinformatkameras (24x36mm, 35mm)
 +      * Mittelformatkameras (5x6cm - 6x9cm)
 +      * Großbildkameras (ab 6x9cmd)
 +        * meist für inszenierte Fotografie
 +    * Objektive: wichtig für Qualität der Bilder und die Bildgestaltung
 +      * Normalwinkelobjektive:​ Brennweite = Diagonale des Filmmaterials,​ 50-80mm
 +      * Teleoobjektive:​ enger Aufnahmewinkel,​ Makrofotografie,​ großer Zoom, Brennweite > normal
 +      * Weitwinkelobjektive:​ großer Aufnahmewinkel,​ Panoramen, große Objekte bei geringem Abstand, Brennweite < normal
 +  * digitale Fotografie
 +    * hier wird kein chemischer Film belichtet, sondern ein optischer Sensor (CCD Charged Coupled Device oder APS Active Pixel Sensor), Speicherung auf Karten, Kenngröße Anzahl lichtempfindlicher Zellen (Auflösung)
 +    * Qualität ist nicht mehr nur von Film und Objektiv abhängig, sondern auch von Auflösung des Chips
 +    * CCD-Chips sind kleiner als übliche Filme, daher muss die Optik sehr gut sein und darauf angepasst
 +    * Vorteile: direkte Verfügbarkeit des Bildes, geringe Kosten pro Bild
 +  * Belichtung
 +    * Blende: steuert die Lichtmenge, die auf den Film/Chip trifft (Durchmesser des Lichtkreises wird angepasst)
 +      * je größer die Blendenzahl,​ desto kleiner die Öffnung
 +      * die Blende steuert auch die Tiefenschärfe:​ wird sie geöffnet, werden die Elemente außerhalb der Schärfenebene unscharf
 +    * Belichtungszeit von 1/2000 Sekunde bis zu mehreren Minuten
 +    * um die optimale Kombination aus Blende und Belichtungszeit zu bestimmen, werden Belichtungsmesser (intern oder extern) verwendet
 +  * Bildbearbeitung
 +    * wichtig im professionellen Bereich
 +    * früher Aufgabe des Retuscheurs
 +    * heute: Photoshop oder The Gimp (nicht im professionellen Bereich)
 +      * Größenumrechnung/​Interpolation
 +      * Umrechnung in verschiedene Farbsysteme
 +      * Erstellen von Beschneidungspfaden
 +      * Bearbeiten von Alphakanälen
 +      * mehrere Bildebenen und -masken
 +      * Ebeneneffekte und Bildeffekte durch Filter
 +  * DTP
 +    * vektorbasierte Zeichenprogramme:​ Adobe Illustrator und Freehand
 +    * "​echtes"​ DTP (Adobe InDesign, Quark XPress)
 +      * professioneller Textsatz (Blocksatz, Silbentrennung,​ Umfluss)
 +      * freie Definition von Druckbögen
 +      * Anlegen von Musterseiten
 +      * Referenzierung von Bildelementen
 +      * "​Verpacken"​ aller Dateien
 +      * Funktionen für die Druckvorstufe (Farbseperation,​ Überfüllung,​ Typographie)
 +    * Arbeitsschritte der Druckvorstufe:​ DTP -> Reinzeichnung -> Belichtung (4x) -> Druck
 +  * Computeranimation:​ synthetische Erzeugung von Bildern mit dem Computer
 +    * Anwendungsgebiete:​ Werbung, Trailer, Spezialeffekte in Filmen, Computerspiele
 +    * Ablauf: Modellierung -> Reflexionsverhalten/​Texturierung -> Beleuchtung -> Kameradefinition -> Animation
 +    * Programme sind sehr komplex mit hoher Lernkurve
 +      * Autodesk 3D Studio Max und Maya, Maxon Cinema 4D, Blender
 +    * Körper werden aus Grundkörpern zusammengesetzt,​ die verformt werden können
 +    * bei Lebewesen bietet sich die Definition eines digitalen Skeletts an -> physikalisch plausible Bewegungen
 +    * Oberflächen können mit Texturen belegt werden und ihre Eigenschaften definiert werden (matt, glänzend, transparent etc.)
 +    * Objekte werden auf einer Bühne positioniert und belichtet (digitale Lichtquellen)
 +    * die Position der Kamera und auch die Blendeneinstellungen (Tiefenschärfe) können dann konfiguriert werden
 +    * Szenen können dann in einer Zeitachse animiert werden
 +  * Videokameras
 +    * professionelle Filmkameras arbeiten auch heute noch analog mit chemischer Belichtung
 +    * Auflösungen:​ PAL, 720p (1280x720 progressive),​ 1080i (1920x1080 interlaced)
 +    * Fernseh- und Videokameras arbeiten mit CCD-Chips, können aber die Daten auch analog ausgeben
 +    * günstige Geräte besitzen nur einen Chip, der vor jeder Zelle Filter für Farben hat (1 rot, 1 blau, 2 grün)
 +      * dadurch ist nur ein Viertel der Auflösung des Chips nutzbar -> fehlende Information muss interpoliert werden
 +    * hochwertige Kameras besitzen 3 Chips (einen für jede Grundfarbe)
 +      * {{:​se:​SchematischerAufbauVideokamera.jpg|}}
 +      * Vorverarbeitung vor dem Ausgang
 +        * Aperturkorrektur:​ korrigiert Unschärfen durch Tiefpassfilter um Chip vor ultravioletter Strahlung zu schützen
 +        * Gamma-Vorentzerrung:​ stellt die Kamerakennlinie ein (Verhältnis zwischen durchschnittlicher Grauwertverteilung am CCD und dem Ausgangssignal),​ Adaption zur Lichtumgebung
 +        * Weißabgleich:​ Anpassung an die Farbtemperatur (Sonnenlich 5500 Kelvin, Kunstlicht 3200 Kelvin) der Umgebung
 +        * Bildstabilisatoren:​ unterdrücken Verwackeln des Bildes bei manueller Kameraführung durch Bewegungserkennung anhand markanter Bildpunkte, die Auflösung des CCD muss hierfür größer sein als der aktive Bildausschnitt
 +    * analoge Aufzeichnungsmedien
 +      * Video-8: FBAS, 8mm
 +      * S-VHS und Hi8: S-Video, höhere Qualität als Video-8
 +      * Betacam SP: 1 Zoll Bandbreite, YUV, qualitativ sehr hochwertig
 +    * digitale Formate
 +      * DV (Konsortium von 60 Herstellern)
 +      * DVCAM (Sony)
 +      * DVCPRO, MiniDV (Standard im digitalen Bereich)
 +      * Digital 8 (Sony)
 +      * Aufzeichnung auf MiniDV-Kassetten (Intraframekompression mit DCT, 25MBit/s)
 +    * HD-Formate
 +      * HDV (Sony und JVC, MPEG2)
 +      * DVCPRO HD (Panasonic, Profisegment)
 +      * AVCHD (Panasonic und Sony, basiert auf AVC aus MPEG4)
 +  * Kameraführung:​ freihändig,​ mit Stativ, Steadycam, Kameradolly,​ Kamerakran
 +  * Videoschnitt
 +    * klassischer Schnitt: Kopien vom Originalnegativ -> physikalisches Schneiden -> Editor Decision List (EDL) -> Kopiermaster (Null-Kopie)
 +      * {{:​se:​KlassischerFilmschnitt.jpg|}}
 +    * linearer Schnitt: Kopieren des Films auf eine Masterkopie in linearer Reihenfolge
 +    * nicht-linearer Schnitt: Schnittpunkte werden lediglich referenziert (Cue-Points) -> EDL bis zuletzt änderbar
 +    * Onlineschnitt:​ Schnitt des Orinials
 +    * Offlineschnitt:​ Schnitt einer Arbeitskopie
 +    * Schnittplatz
 +      * analog: linear offline, mehrere Videor-Player,​ Video- und Audiomischpult,​ Effektmodul,​ Rekorder
 +      * digital: nicht-linear online, Einspielgeräte an Framegrapperhardware (Digitalisierung analoger Signale), Speicherung auf Festplatten,​ Schnittsoftware
 +    * digitaler Schnitt
 +      * Bereitstellung des Materials: Digitalisieren des benötigten Materials (Bilder, Videos etc.)
 +      * Rohschnitt: grobe Szeneneinteilung
 +      * Komposition:​ Szenen werden in Zeitleiste montiert, Überblenden und Effekte hinzugefügt
 +      * Feinschnitt:​ Feinheiten der Blenden und Effekte
 +      * Tonmischung:​ Originalaufnahmen,​ Stimmen und Musik werden gemischt
 +    * Produkte: AVID (Hard- und Software), AVID XPress DV, Adobe Premiere, Final Cut Pro
 +  * **Postproduction**:​ Auf- und Nachbereitung des rohen Film- oder Videomaterials bis zum Master
 +    * heute nicht nur Schnitt, sondern Einfügen von Effekten, Farbkorrekturen,​ Kontrastanpassungen,​ Fehlerkorrektur (Kratzer, Verwacklungen),​ Audio-Postproduction
 +    * Produkte: Apple Shake, Autodesk Combustion, Adobe AfterEffects
 +  * **Compositing**:​ Zusammenstellung von Bildfragmenten unterschiedlicher Herkunft zu einer Szene (Verschmelzen von Real-, Trick- und Animationsfilmsequenzen)
 +    * in-camera: Komposition beim Dreh (Matt-Painting,​ Rück-/​Vorprojektion)
 +    * Integration mittels Keying: bei Chromakey werden Farben als transparent definiert und Schauspieler werden vor Blue-/​Greenscreen gefilmt (Alphakanäle möglich)
 +
 +===== Internettechnologien =====
 +  * Internet
 +    * 1960 ARPA-Net (vernetzte Großerchner von Universitäten)
 +    * 1971 E-Mail
 +    * 1989 WWW durch Tim Berners-Lee am CERN: erster Browser und HTML
 +  * URL und DNS
 +    * IP-Adresse identifiziert einen Netzteilnehmer eindeutig
 +    * Ports unterscheiden mehrere Datenströme eines Clients
 +    * IP + Port = Socket
 +    * URI/URL als Adresse zur Verbindungsherstellung mittels TCP/UDP
 +      * <​Schema>://​[<​Benutzer>​[:<​Passwort>​]@]<​Server-ip|Server-dn>​[:​Port]/​[<​Pfad>​][?<​Parameter-id>​=<​Parameter-Wert>​][&<​Parameter-id>​=<​Parameter-Wert>​][#<​Fragment>​]
 +    * DNS bindet IP-Adressen an Namen (Domains)
 +      * [Rechnername][<​Subdomain>​][Domain][TLD]
 +    * Domains kennzeichnen einen Verbund von Rechnern in einem Netzwerk (logische Einheit)
 +    * Top-Level-Domains:​ für Länder, Organisationen und Firmen
 +    * DNS-Server sind gekoppelt, damit nicht jeder Server alle IP-Adressen und Namen im Internet kennen muss (Relaying)
 +  * E-Mail: aus der Not zur Kommunikation heraus entstanden (Ray Tomlinson)
 +    * basiert auf drei ASCII-Protokollen
 +      * SMTP (Simple Mail Transfer Protocol, Port 25): Versand und Relay von Mails an MTAs (Mail Transfer Agent)
 +      * POP (Post Office Protocol, Port 110): Abrufen und Entfernen von Nachrichten von einem Server
 +      * IMAP (Internet Message Access Protocol, Port 143): Online-Zugriff auf ein Postfach, Mails verbleiben auf dem Server
 +  * HTTP (Hypertext Transfer Protocol, Port 80)
 +    * textbasiertes Protokoll zur Kommunikation zwischen Webbrowser und Webserver
 +    * GET zur Anfrage einer Seite
 +    * Antwort des Servers in der unterstützten Protokollversion mit Statuscode (200 = OK), Metadaten des Servers und der Seite Response-Header und die Seite im Response-Body,​ Bilder usw. werden danach übertragen
 +    * HTTP 1.0: seperate Verbindung für jede Ressource, HTTP 1.1: eine Verbindung reicht
 +    * Datenübertragung an den Server: GET (Länge eingeschränkt) und POST (im Request-Body)
 +    * zustandslos -> Sessions (servergespeichert und Cookies)
 +    * WebDAV (Web-based Distributed Authoring and Versioning):​ Webserver kann auch als Fileserver genutzt werden
 +  * FTP (File Transfer Protocol, Port 21)
 +    * ASCII-basierts Protokoll zum Austausch von Dateien
 +    * unverschlüsselte Übermittlung von Zugangsdaten -> SFTP
 +  * **Hyptertext**:​ in einem Hypertextsystem werden Dokumente, die Teil der Gesamtinformation sind, in Knoten abgelegt und durch Links miteinander verknüpft -> semantisches Netz
 +  * **XML** enthält, formt, benennt, strukturiert und schützt Informationen
 +    * Markupsprache mit Tags
 +    * Tag + Inhalt = Element
 +    * Vorteile: Textdateien,​ universell einsetzbar, frei erweiterbar,​ einfach zu verstehen
 +    * Definition von XML-Strukturen
 +      * Document Type Definition: gut für Elementstrukturen und Attributlisten,​ aber wenig Möglichkeiten zur Kontrolle des Textinhalts
 +      * Schema: selbst XML-Dateien mit weitreichenden Kontrollmöglichkeiten
 +    * XPath: Abfragesprache für XML ähnlich zu SQL für Datenbanken
 +      * boolesche Ausdrücke, Vergleichsoperationen,​ numerische Operationen,​ Stringmanipulation
 +    * XSLT (Extensible Style Language Transformation):​ Umwandlung von XML in beliebige andere Formate
 +      * Sonderform XSL-FO zur Umwandlung in PDF und Postscript
 +    * Beispiele für definierte Formate: DocBook, RelaxNG, MathML
 +  * HTML ist die Sprache des WWW und definiert sowohl strukturelle als auch gestalterische Elemente zur Erstellung von Internetseiten
 +    * HTML 4.1 lehnt sich nur an XML an, 2001 wurde XHTML spezifiziert,​ ein valides XML-Format
 +    * gute Webseiten nutzen HTML zur Strukturierung der Inhalte und CSS zur Gestaltung
 +  * CSS ist eine Technik um die Inhalte von XML-Dokumenten grafisch zu gestalten -> Trennung von Inhalt und Layout
 +    * Grundlage: Box-Modell mit Margin, Border und Padding
 +    * Einbindung per STYLE oder in seperaten Dateien
 +    * mittels Selektoren werden Elemente angegeben, die dann über Style-Definitionen formatiert werden sollen
 +      * Elemente können IDs und Klassen zugewiesen bekommen
 +    * kaskadierbar:​ mehrere CSS-Dateien pro Dokument, spezialisierte Definitionen überschreiben generische Definitionen
 +    * Problem: unterschiedliche Darstellung in den einzelnen Browsern
 +  * JavaScript: Skriptsprache,​ die in den Quelltext von HTML-Seiten eingebunden werden kann
 +    * Ausführung auf Client-Seite,​ wird interpretiert,​ schwache Typisierung,​ dynamische Bindung, OO-Konzepte,​ Einsatz meist für EventHandling
 +    * Zugriff auf Funktionen des Webbrowsers,​ Hilfsobjekte und HTML-Dokument
 +    * kein Zugriff auf Ressourcen des Clients (trotzdem Gefahr durch XSS)
 +  * Adobe Flash
 +    * 1997 von Macromedia veröffentlicht,​ erstes Programm für vektorbasierte Animationen in Webseiten
 +    * Objekte werden auf einer Bühne platziert und animiert, ActionScript wird für das Scripting verwendet
 +    * ActionScript 2.0 und Flash MX 2004 in 2003 -> OO-Konzepte
 +    * 2005 Übernahme durch Adobe
 +    * Autorenwerkzeug:​ Zeitleiste, Bühne, Bibliothek (vektorbasierte Objekte, Filme, Bilder etc.)
 +    * wichtigste Objekte: Instanzen der Klasse MovieClip -> Container für beliebige in Flash adressierbare Elemente
 +      * stellen Attribute und Methoden für Skalierung, Manipulation der Zeitleiste, Bewegung usw. möglich sind
 +      * ein Film muss nicht stringent der Zeitleiste folgen, sondern kann durch ActionScript geloopt, gestoppt, fortgesetzt werden
 +      * prinzipiell kann jedes aktive Element ActionScript aufnehmen
 +    * Vorteile von ActionScript 2.0
 +      * durchgängig objektorientiertes Konzept
 +        * Vererbung, Polymorphismus,​ Interfaces
 +      * Klassen können in eigenen Klassendateien verwaltet und wiederverwendet werden
 +      * Bibliotheksobjekte lassen sich mit Klassen verknüpfen -> Trennung Design/Code
 +      * Event-Handler Factory-Klassen (MovieLoader) setzen bekannte Patterns der OOP um
 +    * Verbreitungsgrad des Plugins 85%-95%
 +    * "​echte"​ Multimedia-Webseiten können erzeugt werden
 +    * Nachladen von Bildern, Animationen,​ XML-Anbindung an Middleware, Audioeinbettung
 +    * Flash-Video-Forma FLV ist proprietär und nicht offengelegt,​ hohe Verbreitung durch YouTube
 +    * 2004 erste Version von Flex als integriertes Werkzeug zur Erstellung von Multimedia-fähigen Oberflächen für Websites
 +      * Flex-Builder:​ IDE für Multimedia-Frontends (Eclipse-Plugin)
 +      * große Klassenbibliothek für Datenein- und -ausgabe und Layoutgestaltung
 +      * Layout wird mit MXML-Dateien realisiert
 +      * Kommunikation zum Server mittels WebServices
 +      * Flex Data-Services ermöglicht weitere Anbindung über RPC, JMS, EJB und ColdFusion, Java-Anwendung,​ die z.B. im Tomcat deployt werden kann, sehr teuer
 +      * {{:​se:​SchichtenAdobeFlex.jpg|}}
 +    * Flash dient zur Erstellung von RIA mit Animation, Sound, Video
 +    * trotz großer Verbreitung geringere Client-Unterstützung als AJAX
 +
 +===== Serverseitige Technologien =====
 +  * CGI (Common Gateway Interface): Mechanismus zum Aufruf externer Programme durch HTML-Seiten
 +    * einfaches Deployment durch interpretierte schwach-typisierte Sprachen: Perl (Practical Extraction and Report Language), PHP, Python, Ruby
 +  * Java
 +    * Entwicklung durch Sun Microsystems mit Ziel der Plattformunabhängigkeit,​ seit 2007 OpenSource
 +    * Java lehnt sich an C++ an, aber
 +      * keine Mehrfachvererbung
 +      * Garbage-Collector anstatt Destruktoren
 +      * keine Pointer
 +    * Java-Code wird in Bytecode übersetzt, der auf der Laufzeitumgebung (JRE) läuft
 +    * Applets: kleine Java-Applikationen auf dem Webserver, die in der JRE des Clients in einer Sandbox laufen, heute kaum noch relevant
 +    * Servlet-API und JSP
 +      * Servlets verarbeiten HTTP-Requests und -Responses
 +      * JSP vereinfachen die Arbeit mit HTML: hier wird Code in HTML eingebettet
 +      * benötigt Servlet-Container wie Apache Tomcat
 +    * J2EE enthält Komponenten und Bibliotheken um mehrschichtige,​ datenbank- und transaktionsgestützte Webanwendungen zu entwickeln
 +      * Skalierbarkeit,​ Performance,​ Interoperabilität
 +      * benötigt einen Application Server mit den folgenden Komponenten
 +        * EJB: Geschäftslogik (Session-, Entity- und Message-Driven-Beans)
 +        * Servlets / JSP: HTML-Fassade für die Clients
 +        * JSF: baut auf JSP auf und ermöglicht den Einsatz von kompletten Komponenten zur Datenein- und -ausgabe und Navigationsregeln mittels XML, Daten werden von Managed-Beans verwaltet
 +        * JNDI: Schnittstelle für Anwendungen zur Nutzung beliebiger Datencontainer
 +        * JMS: API für asynchrone Nachrichtenverarbeitung
 +        * JDBC: API für relationalen Datenbankzugriff
 +        * JTA: Transaktionsmanagement
 +        * JPA: einfache Erstellung von Entity-Beans und Datenbankanbindung
 +        * Java Mail: Schnittstelle für Mailverarbeitung
 +      * insbesondere bei großen Webapplikationen im Einsatz
 +      * Nachteil ist die starre Vorgabe von Richtlinien für die Beans etc. -> Overhead
 +      * Reaktion von Sun in EJB 3.0 und Java EE 5.0: Annotationen kennzeichnen Klassen (z.B. Persistenz und WebServices)
 +        * Vorteile: Daten sind in der Klasse selbst definiert, Compiler kann Fehler erkennen
 +  * .NET-Framework
 +    * erste Ansätze durch ASP -> Einbettung von VisualBasic in HTML, Auswertung durch IIS
 +    * ASP reichte schnell nicht mehr aus -> .NET-Framework
 +    * Laufzeitumgebung CLR: verschiedene Programmiersprachen möglich (VB, C++, C#), Übersetzung in Intermediate Language (IL), die dann ausgeführt wird
 +    * {{:​se:​AufbauCLR.jpg|}}
 +    * Common Type System als Datentyp-Grundlage für alle Programmiersprachen
 +      * {{:​se:​DatentypenCTS.jpg|}}
 +    * Features: Exception-Handling,​ Garbage-Collector,​ JIT, Sicherheitsmechanismen,​ umfangreiche Klassenbibliothek,​ Reflection, Generics
 +      * Performance liegt zwangsläufig unter nativem Maschinencode
 +    * Einsatz für mehrschichtige Webanwendungen
 +      * ADO.NET für DB-Zugriff, Logik in DLLs, Präsentation durch ASP.NET
 +      * Datenabstraktion durch LINQ
 +    * WPF: Framework für die Erstellung von Anwendungsoberflächen und Darstellung multimedialer Inhalte
 +      * 2D und 3D Rendering Engine
 +      * XAML (Extensible Application Markup Language) zur Beschreibung der Oberflächen -> Trennung Design und Logik
 +      * Silverlight
 +  * Ruby on Rails
 +    * Ruby: schwach typisierte OO-Skriptsprache
 +    * Rails: Webframework
 +    * convention over configuration,​ don't repeat yourself
 +    * Prinzipien: semantische Dateistruktur,​ Active Records, Scaffolding,​ offene Architektur,​ AJAX integriert
 +
 +===== Web 2.0 =====
 +  * RSS/Atom: XML-Format für Neuigkeiten auf Webseiten
 +    * Schema für XML-Dateien
 +    * Einbindung über LINK in HTML-Seiten
 +  * Podcasts: Neologismus aus iPod und Broadcast
 +    * Basis ist RSS
 +    * MP3s werden per RSS verteilt
 +    * normale Nutzer können "ihr eigenes Radioprogramm erstellen"​
 +    * Vorteil: asynchrones Anhören der Inhalte nach Download
 +  * Blogs: Abkürzung für Weblog
 +    * Massenphänomen dank einfacher Software (CMS)
 +  * Wikis
 +    * Benutzer erstellen Inhalte gleichberechtigt
 +    * setzen sich auch in Unternehmen durch (Kundenbindung,​ Marketing)
 +    * Problem: Qualitätssicherung
 +    * Folksonomy
 +  * AJAX (Asynchronous JavaScript and XML)
 +    * durchbricht das bisherige Paradigma der Webseiten durch dynamisches Laden von Teilbereichen der Seiten
 +    * Kommunikation mit Server über XMLHttpRequest-Objekt
 +    * Beispiele: Google Mail, Yahoo
 +    * Möglichkeiten:​ Drag-and-Drop,​ Online-Anwendungen wie Office, Eingabevalidierung on-the-fly
 +    * Benutzer braucht kein Plugin (nur JavaScript)
 +    * Probleme
 +      * Unterstützung durch die verschiedenen Browser (insb. IE)
 +      * Browser-Buttons funktionieren nicht mehr
 +      * Lesezeichen können nicht genutzt werden
 +      * höherer Traffic
 +      * Debugging ist schwierig
 +  * Mashups: Vernetzung von Komponenten verschiedener Herkunft in einem Angebot (Content-Syndication)
 +    * Beispiele: Google Maps, Videoportale,​ Yahoo Pipes
 +  * Web 2.0: keine Technologie,​ sondern der Wandel der Rezeption und Produktion multimedialer Inhalte im Internet
 +    * Grenze zwischen Produzent und Konsument weicht auf
 +    * Content wird von den Benutzern erstellt
 +    * Anwendungen verlagern sich auf Webserver
 +    * Probleme: Datenschutz,​ Sicherheit, Kriminalität,​ Medienkompetenz ist nötig
 +
 +===== Virtual Reality =====
 +  * dem Benutzer wird ein Modell der Welt dargeboten, das der Benutzer beeinflussen kann
 +  * Kennzeichen
 +    * Interaktivität:​ Einwirken auf die künstliche Welt
 +    * Gleichzeitigkeit:​ unmittelbare Reaktion der künstlichen Welt
 +    * Immersion: Verschmelzen mit der künstlichen Welt
 +  * Einsatzgebiete
 +    * Computerspiele
 +    * Medizintechnik
 +    * Produktdesign
 +  * die Immersion erfordert neue Eingabemöglichkeiten (HCI, Human Computer Interface)
 +    * neue physikalische und biologische Sensoren
 +      * Datenhandschuh
 +      * Monitorbrille (Head Mounted Display)
 +      * Lagesensoren
 +      * Tracking-Systeme
 +  * VRML (Virtual Reality Modeling Language)
 +    * 1994 erschienen, 1996 kam Version 2 und VRML Konsortium wurde gegründet
 +    * ASCII-basierte Sprache zur Beschreibung von 3D-Objekten
 +    * wird vom Browser interpretiert
 +    * plattformunabhängig
 +    * kann Animationen,​ Videos, Bilder, Klänge beinhalten
 +    * ermöglicht Benutzerinteraktion
 +    * Probleme: Browserkompatibilität,​ langsam
 +    * Beschreibung der virtuellen Welt durch einen Szenegraph in Baumstruktur mit verschiedenen Knotentypen
 +      * Geometrikknoten für geometrische Formen
 +      * Interpolatoren für zeitliche Veränderungen
 +      * Sensoren generieren benutzer- oder zeitgesteuert Ereignisse
 +      * Umgebungsknoten für Lichtquellen,​ Audio etc.
 +      * Ansichtknoten für Navigations- und Kamerainformationen
 +      * Scriptknoten steuern Ereignisse per JavaScript
 +    * Unterschied zu 3D-Programmen:​ VRML wird nicht gerendert, sondern zur Laufzeit dargestellt
 +    * 2003 wurde X3D eingeführt,​ das VRML in ein XML-Format überführt
 +
 +===== Links =====
 +  * [[http://​www.sengpielaudio.com/​RechnerSonephon.htm|Zusammenhang zwischen sone und phon]]
 +  * [[http://​de.wikipedia.org/​wiki/​Farbunterabtastung|Farbunterabtastung]]
 +
 +===== ToDo =====
 +  * Unterscheidung BAS / FBAS
 +  * LZW und Huffman im Baum durchspielen
 +  * logarithmische und 3-Step-Suche am Beispiel durchführen
 +  * Unterschiede zwischen wichtigen Themen herausarbeiten
 +  * Flash und ActionScript anschauen
 +
 +==== Alte Klausur ====
 +  * Definitionen:​ GOP, XML, XSLT
 +  * Huffman und LZW anwenden
 +  * Vorteile des AVC
 +  * ActionScript-Ausschnitte erklären
 +  * JPEG erklären
 +  * Unterschied AJAX / Servlet/​Applet
 +  * CSS Box Model
 +  * Shannon-Nyquist-Theorem anwenden
 +
 +===== Klausur =====
 +  * Gegenüberstellungen
 +  * Zusammenhänge
 +  * Detailfragen
 +  * Flash-Codeausschnitte kommentieren
 +  * Hilfsmittel:​ Taschenrechner
 +  * Skype: maddias.r
 +
 +===== Begriffe =====
 +  * [[http://​de.wikipedia.org/​wiki/​Determiniertheit_%28Algorithmus%29|Determiniertheit]]
 +    * Ein Algorithmus ist eine **eindeutige** Abbildung.
 +  * [[http://​de.wikipedia.org/​wiki/​Determinismus_%28Algorithmus%29|Determinismus]]
 +    * Zu jedem Zeitpunkt ist der nachfolgende Abarbeitungsschritt eines Algorithmus eindeutig festgelegt.
 +  * [[http://​de.wikipedia.org/​wiki/​Kontinuit%C3%A4t|Kontinuität]] (analoge Signale)
 +    * lückenloser Zusammenhang,​ Stetigkeit, stetige Werte
 +  * [[http://​de.wikipedia.org/​wiki/​Diskretheit|Diskretheit]]
 +    * räumliche oder zeitliche Trennung von Objekten oder Ereignissen
 +  * [[http://​de.wikipedia.org/​wiki/​Schwingungsdauer|Periode]] = Schwingungsdauer **T**
 +    * Eine Periode ist die kleinste Zeitdauer einer sich wiederholenden physikalischen Erscheinung.
 +  * [[http://​de.wikipedia.org/​wiki/​Frequenz|Frequenz]] **f**
 +    * Kehrwert der Periode
 +  * [[http://​de.wikipedia.org/​wiki/​Harmonische_Schwingung|harmonische Schwingung]]
 +    * Zeitabhängigkeit der veränderlichen Zustandsgrößen ist sinusförmig.
 +    * t und F sind unabhängig von Amplitude.
 +  * [[http://​de.wikipedia.org/​wiki/​Grenzwert_%28Folge%29|Konvergenz]] <> Divergenz
 +    * Existenz eines Grenzwertes bei einer Folge
 +  * [[http://​de.wikipedia.org/​wiki/​Fraktal|Fraktal]]
 +    * Gebilde mit hoher Selbstähnlichkeit (Beispiel: Mandelbrot-Menge)
 +  * [[http://​de.wikipedia.org/​wiki/​Korrelation|Korrelation]]
 +    * Beziehung zwischen zwei oder mehr statistischen Variablen (nicht zwingend kausal).
 +
 +===== ToRead =====
 +  * DIN 33401
se/multimedia.1206717174.txt.gz · Zuletzt geändert: 2014-04-05 11:42 (Externe Bearbeitung)