Benutzer-Werkzeuge

Webseiten-Werkzeuge


se:multimedia

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

se:multimedia [2009-03-23 18:50]
stefan
se:multimedia [2014-04-05 11:42]
Zeile 1: Zeile 1:
-====== Multimedia ====== 
  
-===== Lernziele ===== 
-  * die physiognomischen Eigenheiten von Hören und Sehen kennen 
-  * den Aufbau analoger Fernsehübertragungstechnik kennen 
-  * das analoge Fernsehsignal in seinen Grundzügen nachvollziehen 
-  * die Motivation der digitalen Signalverarbeitung nachvollziehen 
-  * Methoden und Begriffe der Digitalisierung analoger Signale kennen 
-  * wichtige Begriffe der Datenkompression und Datencodierung kennen 
-  * verlustfreie und verlustbehaftete Kompressionsmethoden kennen 
-  * die Verarbeitungsschritte des JPEG-Encoders kennen 
-  * Verfahren der Interframe- und Intraframecodierung kennen 
-  * die Evolutionsstufen der MPEG-Familie kennen 
-  * die in MPEG verwendeten Kompressionsalgorithmen kennen 
-  * den Aufbau des MPEG-Bilddatenstroms sowie Level und Profile kennen 
-  * die Audiokompressionsverfahren der MPEG-Familie kennen 
-  * die Anwendung psychoakustischer Erkenntnisse bei MPEG nachvollziehen 
-  * die wichtigsten Dateiformate für Multimedia-Inhalte kennen 
-  * wissen, welche Formate für welchen Zweck adäquat sind 
-  * wichtige Werkzeuge und Geräte in der Medienproduktion kennen 
-  * Grundlagen der elektronischen Klangerzeugung und Musikproduktion kennen 
-  * verschiedene Alternativen bei der Medienproduktion identifizieren 
-  * wichtige Netzwerkprotokolle und -dienste kennen und ihre Anwendungsgebiete benennen können 
-  * Client- und Server-seitige Techniken kennen und identifizieren können, für welchen Zweck welche Technik adäquat ist 
-  * wichtige Trends des WWW kennen und evaluieren können 
-  * ermutigt sein, selbst neue Trends im WWW zu entdecken 
- 
-===== Einleitung ===== 
-  * **Kommunikation** ist die zielgerichtete,​ kanalgebundene Übertragung von Informationen von einem Sender zu einem oder mehreren Empfängern. 
-  * Kommunikationskanäle zwischen Menschen 
-    * textuell (Wort und Schrift) 
-    * visuell (Licht und Farbe) 
-    * auditiv (Ton, Klang, Sprache) 
-    * taktil (Fühlen von Kräften, Texturen, Temperaturen) 
-    * olfaktorisch (Riechen und Schmecken) 
-    * Wahrnehmung von Bewegung und Beschleunigung 
-  * im Zentrum von Multimedia stehen Menschen und ihre Wege, mit anderen Menschen und ihrer Umwelt zu kommunizieren 
-  * **Multimedia** ist der Trend, die Kanäle, über die Menschen mit ihrer Umwelt kommunizieren,​ mit Mitteln der Informationswissenschaft über alle Quellen zu integrieren und als Gesamtheit für die Kommunikation zu nutzen. 
-  * Multimedia-Kanäle:​ Text, Bild, Film/Video, Internet, Virtual Reality, Audio 
- 
-===== Wahrnehmung ===== 
- 
-==== Hören ==== 
-  * akustische Phänomene, die das Gehör wahrnimmt, sind Kompressionen und Verdünnungen der Luftmoleküle 
-  * die Druckwellen treffen auf das Trommelfell und werden über die Ohrknöchelchen an die Cochlea übermittelt 
-  * feine Flimmerhärchen in der mit Lymphflüssigkeit gefüllten Cochlea schwingen und geben elektrische Impulse ans Gehirn weiter 
-  * {{:​se:​AufbauDesGehoers.jpg|}} 
-  * das menschliche Gehör kann Schallereignisse im Bereich von 18 Hz bis 20.000 Hz wahrnehmen 
-  * Töne tiefer Frequenz benötigen einen höheren Schalldruck,​ um wahrgenommen zu werden -> **Hörschwelle** 
-  * **Schmerzschwelle**:​ Schalldruck,​ ab dem die Rezeption zu Schmerzempfinden führt 
-  * **Hörfeld**:​ Bereich zwischen Hörschwelle und Schmerzschwelle 
-  * Einheiten 
-    * physikalisch:​ Dezibel als (logarithmische) Einheit für den Schalldruck -> menschliche Wahrnehmung ist nicht linear zur Frequenz 
-    * phsychoakustisch:​ Phon als Einheit für die Lautstärke (Lautstärkeempfinden von Frequenzen im Bezug auf den 1kHz-Sinuston) -> kein quantitativer Vergleich von Lautstärken möglich, da Lautstärkeempfinden nicht proportional zu den Phon-Werten ist 
-    * Sone (N) als Einheit für die (subjektive!) Lautheit (qualitativer Vergleich von Klangereignissen),​ 1 sone = 40 Phon 
-    * Umrechnung: N = 2<​sup>​(L<​sub>​N</​sub>​ - 40) / 10</​sup>​ 
-    * {{:​se:​dBPhonSone.jpg|}} 
-  * Psychoakustik:​ Teilgebiet der Psychophysik,​ das versucht, die Zusammenhänge zwischen physikalischen Eigenschaften von Schallsignalen und dem menschlichen Hörempfinden zu beschreiben 
-  * psychoakustische Phänomene 
-    * tonale Maskierung: schmalbandiger Schall einer bestimmten Intensität löscht Frequenzen geringerer Lautstärke in seinem Frequenzumfeld aus (**Mithörschwelle**:​ Grenze, ab der der Ton wahrgenommen wird), Effekt ist abhängig von Frequenz und Schallpegel des Maskierers 
-    * temporale Maskierung (Vor- und Nachverdeckung):​ Maskierung vor (20ms) und nach (200ms) Auftreten des Maskierers 
-    * Schwebung und Rauhigkeit: zwei Töne ähnlicher Frequenz werden als ein Ton bestimmter Tonhöhe wahrgenommen,​ wobei der Schall durch die Phasenverschiebung eine Schwebung erfährt 
-      * je größer die Frequenzdifferenz,​ umso rauher klingt der Ton, bishin zur Wahrnehmung zweier unterschiedlicher Töne 
-    * Residuum: Töne von Instrumenten setzen sich aus Grundton und Obertönen (Harmonische,​ Frequenzen sind ganzzahlige Vielfache des Grundtons) zusammen, filtert man den Grundton heraus, vervollständigt das menschliche Gehör die fehlende(n) Grundschwingung(en) zum ursprünglichen Klangbild 
-  * **kritische Bänder**: Schallereignisse werden in Frequenzgruppen wahrgenommen,​ deren Gruppenbreite mit steigender Frequenz zunimmt 
- 
-==== Sehen ==== 
-  * Licht fällt durch die Hornhaus, Iris und Linse auf die Netzhaut (Retina) 
-  * Rezeptoren auf der Retina wandeln die Lichtinformationen in elektrische Impulse 
-    * Zapfen: farb-/​helligkeitsempfindlich,​ 3 Typen: A grün, B gelb-rot, C violett, arbeiten bei Tageslicht optimal, Anzahl 6 Millionen 
-    * Stäbchen: nur helligkeitsempfindlich,​ empfindlicher als Zapfen, Anzahl 120 Millionen 
-  * fovea centralis: Punkt größter Sehschärfe,​ hier sind nur Zapfen vorhanden 
-  * wahrnehmbares Licht: 780nm (rot) - 390nm (violett) 
-  * blinder Fleck: hier bündeln sich die Nervenbahnen des Auges zum Sehnerv 
-  * Gehirn verarbeitet Informationen und erzeugt ein Bild, blinder Fleck wird interpoliert,​ Farbinformationen werden gemischt, unterschiedliche Bilder der zwei Augen ermöglichen räumliches Sehen 
-  * {{:​se:​AufbauDesAuges.jpg|}} 
-  * das Auflösungsvermögen des Auges ist biologisch begrenzt 
-    * bestimmte Detailtiefe wird nicht mehr wahrgenommen 
-    * ruhende Objekte werden besser erfasst als sich bewegende 
-    * Helligkeitsunterschiede werden besser erfasst als Farbunterschiede 
-      * maximale Farbempfindlichkeit bei gelb-grün 
-    * 20 Bilder pro Sekunde werden bereits als kontinuierliche Bildfolge wahrgenommen 
- 
-===== Analoge Fernsehtechnik ===== 
-  * {{:​se:​BrownscheRoehre.jpg|}} 
-  * Elektronen werden durch Magnetspulen abgelenkt und bringen auf einer Mattscheibe ein fluoreszierendes Material zum Leuchten 
-  * Elektronenstrahl läuft zeilenweise über das Bild, Nachleuchten der Fluoreszenzschicht vermittelt Eindruck eines Bildes 
-  * inverse Funktionsweise kann für Kameras verwendet werden 
-  * Erkenntnisse über das Auflösungsvermögen des Auges führten zu einer Zahl von mindestens 600 Zeilen pro Bild 
-  * alle Zeilen nacheinander abzuarbeiten (progressive,​ 25 Vollbilder) führt zu Flimmern -> interlaced mode (50 Halbbilder) 
-  * Parameter von PAL 
-    * 625 Zeilen, 576 sichtbar 
-    * Vertikalfrequenz:​ 50Hz, Bilddauer 20ms 
-    * Horizontalfrequenz:​ 50 * 312,5 = 15625Hz, Zeilendauer 64 Mikrosekunden 
-    * YUV Farbmodell 
-  * Signalübertragung 
-    * Bild-Austastung-Synchronisation (BAS) 
-    * {{:​se:​BAS.jpg|}} 
-    * Bildsignal: analoge Grauwertübertragung einer Bildzeile, Signalbereich 0,7 Volt 
-    * Austastungssignal:​ Signal beim Strahlenrücklauf (horizontal vs. vertikal), Pegel unter Schwarzbereich,​ in Austastlücke werden Metainformationen übertragen (VPS, Videotext, Prüfsignale) 
-    * Synchronisationssignal:​ dient der Synchronisation jeder Bildzeile/​Halbbild,​ Übertragung in der Austastlücke 
-  * Farbsysteme 
-    * additiv: selbstleuchtende Farben (z.B. Fernseh-/​Computerbildschirme),​ RGB, alle Farben zusammen ergeben weiß 
-    * subtraktiv: beleuchtete Träger (z.B. Offsetdruck),​ CMYK, alle Farben zusammen ergeben schwarz 
-  * Farbfernsehen:​ PAL -> YUV-Modell (Y = Helligkeit/​Luminanz,​ UV = Farbdifferenz/​Chrominanz) 
-    * Y = 0,299R + 0,587G + 0,114B 
-    * U = (B - Y) * 0,493 
-    * V = (R - Y) * 0,877 
-    * gelb-grün-Anteil trägt wesentlich zum Helligkeitsempfinden bei 
-    * Kameras enthalten Rot-, Grün- und Blaufilter 
-    * Farbmonitore enthalten drei Elektronenquellen 
-    * BAS -> FBAS (F = Farbe): Übertragung der Fardifferenzen in der Austastlücke 
-  * Fernsehstandards 
-    * NTSC (National Television Systems Committee): 720x485x30, YiQ Farbmodell 
-    * PAL (Phase Alternating Line): 720x576x25, YUV Farbmodell 
-    * SECAM (sequentiel couleur a memoire): Abwandlung von PAL, YiQ Farbmodell 
- 
-===== Digitalisierung ===== 
-  * bis in die 90er Jahre wurden mediale Inhalte hautpsächlich analog produziert und rezipiert (Schallplatten,​ Musikkassette,​ VHS) 
-  * Unterschiede analog/​digital 
-    * kontinuierliche,​ analoge Signale <> diskontinuierliche,​ diskrete Signale 
-    * Generationsverlust <> kein Generationsverlust 
-    * Störanfälligkeit im Übertragungskanal <> binäre Übertragung 
-  * Vorteile der Digitalisierung 
-    * Computer arbeiten digital 
-    * die Bearbeitung und Verarbeitung von Medien in digitaler Form ist einfacher 
-    * Datenkompression ist in digitalen Formaten einfacher zu realisieren 
-    * Fehlerschutz- und -korrekturmechanismen sind möglich 
-    * Kopien sind ohne Generationsverlust durchführbar (entscheidender Punkt!) 
-  * Digitalisierung von Audioinhalten 
-    * liegen als kontinuierliche,​ analoge, elektrische Signale vor -> unendlich viele Werte beliebiger genauer Auflösung 
-    * Abtastung zu bestimmten Zeitpunkten und Überführung in diskreten Wertebereich -> Digitalisierung 
-    * **Abtast-/​Samplingrate**:​ Frequenz, mit der Werte im Signal abgetastet werden 
-      * Shannon-Nyquist-Theorem:​ f<​sub>​a</​sub>​ > 2 * f<​sub>​max</​sub>​Hz 
-      * wird das SNT missachtet kann das Ausgangssignal nach der Digitalisierung nicht mehr eindeutig rekonstruiert werden 
-      * menschliches Gehör kann bis zu 20kHz wahrnehmen -> Abtastrate > 40kHz 
-    * **Quantisierung**:​ Überführung der kontinuierlichen Amplitudenwerte eines Signals in diskrete Werte 
-      * Auflösung in bit legt die Anzahl der zulässigen Werte fest 
-      * Quantisierungsfehler wird umso größer, je geringer die Auflösung ist -> bei Audio als Rauschen hörbar 
-      * Signal to Noise Ratio (SNR): SNR = 20 * log (A<​sub>​Signal</​sub>​ / A<​sub>​Rauschen</​sub>​) dB 
-      * jedes zusätzliche Bit in der Quantisierungsauflösung resultiert in einer Erhöhung der Klangdynamik um 6dB bei gleichzeitiger Reduzierung des Rauschens um 6dB 
-      * Pulse Code Modulation (PCM): linear = gleichmäßige Quantisierungsstufen,​ nicht-linear = logarithmische Quantisierungsstufen -> geringere Auflösung im unteren Wertebereich 
-    * CD-Audio: Abtastrate 44kHz, Auflösung 16bit 
-  * Digitalisierung von Bildinhalten 
-    * Zerlegung des Bildes in Raster bestimmter Auflösung, zeilenweise Abtastung 
-    * Auflösung: Anzahl Zeilen und Bildpunkte pro Zeile 
-    * Quantisierung:​ Anzahl der Graustufen pro Pixel 
- 
-===== Datenkompression ===== 
-  * Ablauf 
-    * ein Signal x wird durch einen Encoder in ein komprimiertes Signal y gewandelt und durch den Übertragungskanal geschickt 
-    * der Empfänger ermittelt mit Hilfe eines Decoders das Ausgangssignal x' 
-    * bei verlustloser Kompression werden redundante Informationen gelöscht (Entropiekodierung) und x' entspricht genau x 
-    * bei verlustbehafteter Kompression werden irrelevante Informationen gelöscht und x' ist nicht gleich x 
-  * Anforderungen an Kompressionsverfahren 
-    * minimale Anzahl an bits 
-    * Eindeutigkeit / Rekonstruierbarkeit 
-    * kleinstmöglicher Unterschied zwischen Eingangs- und Ausgangssignal 
-  * Kategorien: Entropiecodierung / Quellencodierung 
-    * Reduktion redundanter Daten <> Reduktion irrelevanter Daten 
-    * universell <> an zu komprimierenden Datenstrom angepasst 
-    * verlustfrei <> verlustbehaftet 
-  * **Entropiecodierung**:​ Verfahren, bei denen Auftrittswahrscheinlichkeiten zwischen verschiedenen unabhängigen Symbolen eines Alphabets zur Reduktion der Datenmenge ausgenutzt werden 
-  * **Informationsgehalt** eines Zeichens: I<​sub>​i</​sub>​ = log (1 / p<​sub>​i</​sub>​) bit 
-  * **Entropie**:​ mittlerer Informationsgehalt,​ Summe der Produkte aus Wahrscheinlichkeiten und Informationsgehalten aller Symbole 
-  * statistische Codierungsverfahren versuchen, dem Wert H für die Entropie möglichst nahe zu kommen, Symbole mit hoher Wahrscheinlichkeit bekommen kürzere Codewörter zugewiesen 
-    * Problem bei Codewörtern ungleicher Länge: Trennzeichen sind nötig oder Verwendung von Prefix-Codes 
-    * **Huffman-Code** als Beispiel für Prefix-Codes 
-  * **Präcodierung**:​ betrachtet die Korrelation von Symbolen in einem zeitdiskreten Signal und versucht, die Intersymbolredundanz zu verringern 
-    * **Lauflängencodierung (RLE)**: nur effektiv wenn Basis des Zahlensystems klein und Anzahl der Wiederholungen (runs) groß ist 
-    * **statische Patternsubstitution**:​ bestimmte Symbolfolgen treten häufig auf und bekommen fixe kurze Codeworte zugewiesen (z.B. "​sch"​ in der deutschen Sprache) 
-      * ein Escape-Zeichen ist nötig 
-    * Lempel-Ziv-Welch (LZW): alle Symbole werden in das Ausgangswörterbuch geschrieben,​ dann wird dieses dynamisch vercollständigt 
-  * Quellencodierung 
-    * Gruppe der Dekorrelation:​ Prädiktion und Transformationscodierung 
-    * Prädiktion:​ basiert auf differentieller Codierung, versucht Aussagen über Signalwerte anhand bereits bekannter Signalwerte zu treffen 
-      * Wert wird einem Prädiktormodul zugeführt, das einen Schätzwert ermittelt, der Unterschied zum tatsächlichen Wert (tatsächlicher Wert - Schätzwert) wird dann übertragen 
-      * Nachteil: Pufferung der bisherigen Werte notwendig 
-      * einfachste Form: Differential Pulse Code Modulation (DPCM) bei Audiosignalen,​ Schätzwert = vorheriger Wert 
-      * Prädiktion bei Bilddaten: kontextabhängige Prädiktormodi z.B. zum Erkennen einer vertikalen Kante 
-    * Transformationscodierung:​ Transformierung vom Orts-/​Zeitraum in den Frequenzraum (damit kann leichter gearbeitet werden und es bieten sich mehr Möglichkeiten für Kompression) 
-      * Transformation ist nicht verlustbehaftet und reversibel 
-      * wichtige Transformationen:​ Discrete Fourier Transformation (DFT, bei Audiokompression) und Discrete-Cosinus-Transformation (DCT, bei Bild- und Videokompression) 
- 
-==== JPEG ==== 
-  * 1992 von der Joint Photographic Experts Group (Gründung 1985 als Projektgruppe der ITU) spezifiziert,​ große Verbreitung durch das Internet 
-  * hybrides Kompressionsverfahren,​ Bildsignal durchläuft verschiedene Codierungsschritte 
-    * Vorverarbeitung (Zerlegung in Makroblöcke,​ Umwandlung in YCrCb) -> Transformation (DCT) -> Quantisierung (der Koeffizienten) -> Entropiecodierung (RLE und Huffman) 
-    * {{:​se:​JPEGEncoder.jpg|}} 
-    * Zerlegung in Farbkomponenten (YCbCr) mit 8bit für jeden Farbwert, Subsampling 4:2:0 -> Farbinformationen können vom menschlichen Auge nicht so gut unterschieden werden wie Helligkeitsinformationen 
-    * Transformation jeder Komponente in 8x8-Makroblöcken mittels DCT 
-      * die 64 Bildpunkte werden in 64 Frequenzbereiche umgeformt 
-      * der 0,​0-Koeffizient wird DC-Koeffizient genannt und steht für den mittleren Grauwert des Blocks 
-      * die übrigen Koeffizienten heißen AC-Koeffizienten und überlagern die Grundfrequenz des DC-Koeffizienten 
-      * diese Transformation hat noch keinen Informationsverlust zur Folge 
-    * (verlustbehaftete) Quantisierung der (Fließkomma-)Koeffizienten mittels einer Quantisierungsmatrix 
-      * es können unterschiedliche Matrizen für Luminanz und Chrominanz verwendet werden 
-      * der Quantisierungsfaktor bestimmt maßgeblich die Datenmenge und die subjektive Qualitätseinstufung des Bildes 
-    * die DC-Koeffizienten durchlaufen einen Prädiktor und der Schätzfehler wird übertragen 
-      * dieser wird Huffman-codiert mittels einer Tabelle, die den (großen) Wertebereich des DC-Koeffizienten in 12 Kategorien einteilt 
-      * es muss nun ein Symbol für die Kategorie des Schätzfehlers übertragen werden und eines für den konkreten Wert 
-      * die Kategorie legt gleichzeitig die Anzahl der benötigten Bits für den konkreten Wert fest 
-      * {{:​se:​CodeTabelleDCKoeffizienten.jpg|}} 
-        * Beispiel für DC[i] Wert 78 (Luma): Bitstrom 11110|1001110 (Kategorie 7, Wert 78) 
-        * Beispiel für DC[i+1] Wert 66 (Luma), DIFF = 66 - 78 = -12: Bitstrom 101|0011 (Kategorie 4, Wert -12 = -15 + 3) 
-    * die AC-Koeffizienten werden Lauflängen-codiert 
-      * sie nehmen üblicherweise kleine Werte an, die sich nur marginal unterscheiden 
-      * sie werden im Zick-Zack-Muster ausgelesen, da sich die höherfrequenten Anteile im oberen linken Bereich des Blocks konzentrieren -> höhere Wahrscheinlichkeit für Nullwerte am Ende des Vektors der AC-Werte 
-      * auch die AC-Koeffizienten,​ die nicht 0 sind, werden mit zwei Symbolen codiert: eine Kategorie und die Anzahl der benachbarten Nullen 
-        * Sonderwerte:​ 15/0 (ZRL, 16 Nullwerte), 0/0 (EOB) 
-      * {{:​se:​CodeTabelleACKoeffizienten.jpg|}} 
-        * Beispiel AC 2|0|0|0: Bitstrom 111110111|10 (Kategorie 2, 0-Lauflänge 3 -> 3/2, Wert 2) 
-    * Verarbeitungsmethoden 
-      * sequentiell:​ ein einziger Durchlauf, blockweise von links oben nach rechts unten -> jeder Block wird unabhängig verarbeitet,​ was zu einer großen Speichereffizienz führt 
-      * progressiv: mehrere Durchläufe,​ erst grob aufgelöst, dann feiner -> Overhead, da für jede Progression die Position der Blöcke gespeichert werden muss 
-        * spektrale Selektion: zuerst werden die tieffrequenten Koeffizienten übertragen,​ dann die hochfrequenten 
-        * schrittweise Approximation:​ die obersten Bits aller Koeffizienten werden zuerst gesendet 
- 
-==== Bewegtbildkompression ==== 
-  * zusätzlich zur Bildkompression die 4. Dimension Zeit 
-  * **Framerate**:​ Geschwindigkeit der Bildabfolge in Frames (Einzelbilder) pro Sekunde 
-  * **Intraframecodierung**:​ isolierte Komprimierung der Einzelbilder (z.B. Motion-JPEG) 
-  * Ziel eines jeden Video-Codecs muss es sein, eine höhere Kompression als die Intraframecodierung zu erreichen und die Interframeredundanz zu eliminieren 
-  * erster Ansatz: nur Veränderungen zwischen den Frames übertragen (Differenzcodierung) 
-  * besser: Bewegungserkennung und Übertragung der Bewegungsvektoren 
-    * komplexe Bewegungen wie Rotationen, Skalierungen und Verformungen könnten zwar berechnet werden, das ist aber zu aufwändig, sodass meist nur Verschiebungen von Objekten erkannt werden 
-    * schwierige Bildteile werden absolut codiert 
-  * Blockmatching 
-    * Aufteilung des Bildes in 16x16-Blöcke (Kompromiss aus Genauigkeit und Aufwand) 
-    * Finden einer Verschiebung durch Ermittlung des geringsten mittleren quadratischen Fehlers zwischen Ausgangsblock und neuem Bild 
-      * Festlegen der Schwellenwerte δ und Δ 
-        * MSE < δ: Codierung durch Verschiebungsvektor 
-        * δ < MSE < Δ: Codierung durch Verschiebungsvektor und Prädiktionsfehler -> Differenzcodierung 
-        * Δ < MSE: absolute Codierung 
-      * alle möglichen Verschiebungen werden aus Performancegründen nicht betrachtet 
-    * Methoden 
-      * logarithmische Suche (kommt geringfügig schneller zum Ziel) 
-      * 3-Stufen-Suche (fest vorgegebene Anzahl an Schritten) 
-      * {{:​se:​SuchstrategienBlockmatching.jpg|}} 
-      * neuere Methoden berechnen auch Halb- und/oder Viertelpixel (Interpolation) um eine noch genauere Verschiebung zu ermitteln 
-    * zukünftige Inhalte lassen sich meist schwer vorhersagen,​ weshalb es sinnvoll ist, auch spätere Bilder zum Blockmatching zu verwenden (Bidirektionale Prädiktion) 
-      * {{:​se:​PraediktionBlockmatching.jpg|}} 
-    * Arten von Frames: I = intraframecodiert,​ P = Vorwärtsprädiktion,​ B = bidirektionale Prädiktion 
- 
- 
-==== MPEG ==== 
-  * 1988 enstand die Motion Picture Experts Group mit dem Ziel ein Verfahren für die Video- und Audiokompression zur Verwendung auf CD-ROMs zu standardisieren 
-  * 1993 wurde MPEG1 offiziell freigegeben 
-    * nur der Bitstrom und die Funktionsweise des Decoders wurde spezifiziert,​ nicht jedoch, wie ein Encoder zum Bitstrom gelangt -> Möglichkeiten zur Optimierung durch verschiedene Implementierungen 
-    * die Optimierung durch diese Konkurrenz ist beachtlich: 1995 wurden noch 6MBit/s für einen optisch ansprechenden Bitstrom benötigt, heute nur noch 2MBit/s ohne den Decoder wechseln zu müssen 
-  * MPEG1 sollte Videodaten auf Video-CDs bereitstellen -> max. 1,5MBit/s (einfache CD-ROM-Geschwindigkeit) mit VHS-Qualität 
-    * Auflösung ist die Hälfte von PAL: 352x288 oder 352x240 (NTSC) 
-    * jeder Decoder sollte mindestens unterstützen 
-      * Horizontalauflösung <= 768 
-      * Vertikalauflösung <= 576 
-      * Makroblöcke pro Bild <= 396 
-      * Frames pro Sekunde <= 30 
-      * Bitrate <= 1,86MBit/s 
-    * Bild muss für PAL und NTSC skaliert werden 
-    * {{se:​AufbauMPEGEncoder.jpg|}} 
-  * MPEG1 spezifiziert... 
-    * Systemschicht:​ Verfahren zum Zusammenfassen der Video- und Audiodaten zu einem gemeinsamen Transportstrom,​ Organisation in Paketstruktur 
-    * Videokompression 
-      * Sequenzstrom ist aufgeteilt in GOPs, die immer mit einem I-Frame beginnen (Anzahl und Abfolge von B- und P-Frames stehen im GOP-Header und sind nicht durch MPEG spezifiziert) 
-      * {{:​se:​MPEGGroupOfPictures.jpg|}} 
-      * Frames sind unterteilt in Slices, die die Makroblöcke des Bildes enthalten 
-      * Makroblöcke bestehen aus 4 8x8-Luminanzblöcken und 2 8x8-Chrominanzblöcken (-> Farbsubsampling 4:2:0) 
-      * {{:​se:​BitdatenstromMPEG.jpg|}} 
-    * Audiokompression 
-      * Layer 1: CD-I, DCC 
-      * Layer 2: DAB (digitales Radio) 
-      * Layer 3: MP3 
-    * Testvorschriften 
-    * Software-Referenzmodell 
-  * 1990 wurde mit der Arbeit an MPEG2 begonnen 
-    * bessere Kompressionsraten bei höherer Bildqualität 
-    * Ziel Anpassbarkeit an unterschiedliche Medien und Übertragungsgeschwindigkeiten 
-    * 1998 verabschiedet 
-    * abwärtskompatibel zu MPEG1 
-    * insg. 10 Parts, zusätzlich zu den 5 von MPEG1 
-      * Steuerung von digitalen Speichermedien (Einsatz im digitalen Fernsehen, Übertragung interaktiver Inhalte) 
-      * nicht abwärtskompatible Audiokompressionsverfahren (Advanced Audio Coding) 
-      * Real Time Interface 
-      * DSM-CC Conformance 
-      * Intellectual Property Management & Protection (IPMP) 
-    * Levels: heben die starre Bildauflösung auf und ermöglichen höhere Auflösungen (bis zu 1920x1152) 
-    * Profiles: kennzeichnen den Aufbau der GOPs und die Skalierbarkeit des Films 
-      * Base Layer hochverfügbar,​ Enhancement Layer zur optionalen Qualitätssteigerung 
-      * SNR-scaling:​ unterschiedliche Bildqualität bei gleicher örtlicher Auflösung 
-      * spatial-scaling:​ unterschiedliche Auflösung, z.B. PAL und HDTV über einen Kanal 
-      * temporal-scaling:​ Basisstrom enthält weniger Bilder, Zwischenframes werden interpoliert 
-      * hybrid-scaling:​ Kombination aus obigen 
-    * Farbsubsampling kann variiert werden: 4:2:0, 4:2:2, 4:4:4 
-    * es können auch Halbbilder übertragen werden 
-    * Audio: AAC, 5.1 
-    * Datenströme 
-      * Programmstrom zur Speicherung auf sicheren Medien, lange Datenpakete 
-      * Transportstrom zur Übertragung auf fehleranfälligen Kanälen, kurze Pakete, Fehlerkorrektur und Redundanz 
-  * die Arbeit an MPEG3 wurde eingestellt,​ da die anvisierten Optimierungen auch mit MPEG2 möglich waren 
-  * 2000 wurde mit der Arbeit an MPEG4 begonnen 
-    * Ziel: objektorientiertes Format mit Fokus auf interaktive Inhalte, synthetisch erzeugte Inhalte (Animationen) und Streaming 
-    * universeller Codec für synthetische und natürliche Inhalte und nahezu alle Speicher- und Übertragungskanäle 
-    * unterstützt interaktive,​ multimediale Computersysteme 
-    * ermöglicht Kombination von synthetischen und natürlichen Szenen 
-    * unterstützt Multiperspektiven 
-    * Objektorientierung:​ Information wird segmentiert und als Aufbau von Objekten verstanden, z.B. Hintergrund und Vordergrund können unterschieden werden -> Compositings,​ wichtige Bildinhalte werden schwächer komprimiert,​ Alphamasken grenzen Objekt zu ihrer Umgebung ab 
-    * Videoszenen werden baumförmig segmentiert (Binary Format for Scenes, BIFS) 
-      * {{:​se:​BIFS.jpg|}} 
-    * Sprache kann durch Sprachsynthese und MIDI-Daten codiert werden 
-    * Optimierung der Videokompression:​ Bewegungsschätzung im Viertelpixel-Bereich,​ Block-Matching kann durch globale Bewegungsschätzung ersetzt werden, Luminanz- und Farbcodierung sind mit frei wählbaren Quantisierungstabellen belegbar 
-    * eigener Objekttyp für Hintergründe,​ der größer sein kann als das sichtbare Bild und verschoben werden kann 
-    * 17 Parts 
-      * Delivery Multimedia Integration Framework (DMIF): Sitzungs- und Streamingprotokoll,​ übertragen werden Pointer auf die Inhalte anstatt Download 
-    * Umfang ist so groß, dass er kaum umgesetzt werden konnte -> Videokomprimierungsanteil wurde 2003 gemeinsam mit der ITU spezifiziert:​ H.264/AVC 
-      * Gemeinsamkeiten mit früheren Standards 
-        * Luma-Chroma-Subsampling 4:2:0 
-        * Makroblöcke 
-        * Slices als Sequenz von Makroblöcken 
-        * I-, B-, P-Frames 
-        * Voll- und Halbbildmodus 
-      * Verbesserungen 
-        * Makroblöcke können bis auf 4x4 unterteilt werden 
-        * Bewegungsvektoren mit Viertelpixel-Genauigkeit 
-        * Bewegungsvektoren dürfen über die Bildgrenzen hinausragen 
-        * multiple Referenzbilder für Bewegungsschätzung sind möglich 
-        * Prädiktion in 9 verschiedenen Modi (horizontal,​ vertikal, diagonal in mehreren Abstufungen) 
-        * Deblocking-Filter reduziert Blockartefakte 
-        * Referenzierung wird von der Reihenfolge der Bilder losgelöst 
-        * gewichtete Mittelung von Referenzblöcken bei bidirektionaler Prädiktion 
-        * Umschalten von Vollbild- und Halbbild-Modus auf Makroblock-Ebene 
-        * örtliche Prädiktion von Blöcken 
-  * {{:​se:​EvolutionsstufenMPEG.jpg|}} 
-    * MPEG1: Video auf CD-ROM, VHS-Qualität,​ 1,5MBit/s 
-    * MPEG2: TV/​HDTV/​DVD,​ Qualitätsprofile,​ 4-8MBit/s 
-    * MPEG4: universelle Anwendung, objektbasiert,​ 5kBit/​s-4MBit/​s 
- 
-===== Audiokompression ===== 
-  * Audiodaten liegen als zeitdiskreter Bitstrom von Samplingwerten vor -> Transformation mittels FFT in den Frequenzraum 
-  * mehrere Samples werden blockweise (Frames) transformiert (bei MP3 Fensterbreite 1152 Samples) 
-  * Filterband teilt das Signal in schmalbandige Frequenzbänder auf 
-    * Maskierungen und die Tatsache, dass Menschen komplexe Schallsignale in Gruppen wahrnehmen, führen zu 24 kritischen Frequenzbändern im Bereich zwischen 16Hz und 16kHz mit ungleicher Breite (ansteigend mit Frequenz) 
-    * MP3 verwendet 32 gleichmäßige Frequenzbänder mit 6 oder 18 möglichen Subbändern (je nach Filterbank) 
-  * die Komprimierung des Signals findet statt, indem die Frequenzbänder durch ein psychoakustisches Modul geschleust werden 
-    * Ermittlung des Leistungsdichtespektrums und der Frequenz des Spitzenpegels im Band -> Maskierungsschwelle 
-    * die Maskierungsschwelle wird mit der Ruhehörschwelle verrechnet und heraus kommt die minimale Bitanzahl pro Band, die das Signal (ohne Rauschen über der Hörschwelle) quantisiert 
-      * optimales Subsampling,​ das das menschliche Ohr nicht wahrnehmen kann 
-    * das Ergebnis geht in die Quantisierung und Codierung der Teilfrequenzbänder ein (Mono und Stereo bis zu 224kbit/s) 
-    * das Verfahren ist stark asymmetrisch (Decodierung ist weniger aufwändig als Codierung) 
-  * Metainformationen:​ CRC-Checksummen,​ ID3-Tags 
-  * Stereo-Signale 
-    * Joint Stereo: Mono-Summensignal und Differenzsignale mit Panoramaschwankungen 
-    * Intensity Stereo: verlustbehaftet,​ untere Frequenzbereiche (Bässe) werden mono-codiert da die Ortung durch das menschliche Ohr schlecht ist 
-  * Dateiaufbau:​ jeder Frame hat eigenen Header und Prüfsummen -> Streaming möglich 
-  * {{:​se:​QualitaetsstufenAudio.jpg|}} 
-  * MP3: MPEG1 Layer 3 
-    * 33, 44.1, 48kHz 
-    * 32-224kbit/​s 
-    * {{:​se:​MP3Encoder.jpg|}} 
-  * AAC: bessere Komprimierung und Multikanalunterstützung 
-    * MPEG2 und 4 
-    * 5.1-Kanäle 
-    * geringere Bandbreiten (8kbit/s) und Abtastraten (16kHz) möglich 
-    * vergleichbare Qualität zu MP3 mit 70% der Bitrate 
-    * nicht abwärtskompatibel zu MP3 
-    * Aufteilung des Signals in 1024 Teilbänder und Transformation mittels DCT 
-    * Temporal Noise Shaping (TNS) 
-      * Kompensierung von Quantisierungsfehlern (Rauschen) im Zeitbereich durch Prädiktion insb. bei Sprache 
-      * Verrechnung der Überlappung an den Grenzen der Frequenzbänder 
-    * Rückwärtsprädiktion verringert die Codewortlängen 
-    * Mehrkanalcodierung (M/S): Monosignal und Differenz der Stereomitte in weiteren Kanälen 
-    * Quantisierung durch Gleitkomma-Quantisierung führt zu konstanterem SNR 
- 
-===== Dateiformate ===== 
-==== Text ==== 
-  * **Typographie**:​ Gestaltungsmuster und -regeln für Schriftdokumente und Ausgestaltung von Schriftarten (Fonts) und Zeichen (Glyphen) 
-  * **Zeichensatz**:​ "​Übersetzungstabelle"​ von Symbolen/​Textzeichen in Binärwörter 
-  * ASCII: Zeichensatz für englisches Alphabet, Zahlen, Steuerzeichen (1byte) 
-    * Anpassungen für bestimmte Länder mit Sonderzeichen (z.B. Umlaute) z.B. ISO-8859-1 (westeuropäisch),​ ISO-8859-2 (osteuropäisch) 
-      * Abwandlung durch Microsoft: CP-1252 
-    * Probleme, wenn spezifischer Zeichensatz nicht installiert ist -> Zeichen werden falsch angezeigt 
-  * Unicode: Multi-Byte-Zeichensatz,​ der alle Sprachen der Erde abdecken soll (Unicode 5: 99.089 Zeichen) 
-    * bis zu 4byte wäre nötig, um alle Zeichen zu codieren -> Einführung von UTF-8 (8-bit Unicode Transformation Format) 
-    * UTF-8 kann als Multi-Byte-Zeichensatz mit variabler Codewortlänge verstanden werden 
-    * die wichtigsten Zeichen (=ASCII) werden mit 1byte codiert 
-    * sprachspezifische Sonderzeichen werden dann mit 2-4byte codiert 
-    * es sind bis zu 8byte pro Zeichen möglich 
-  * Schriften 
-    * **Schriftart**:​ kompletter Satz von Schriftzeichen einer bestimmten Ausgestaltungsform (z.B. Arial, Times) 
-    * **Schriftschnitt**:​ Repräsentationsform einer Schriftart (z.B. fett, kursiv) 
-    * **Schriftfamilie**:​ Schriftart inkl. Schnitte 
-    * **Schriftgruppe**:​ bestimmte Ausgestaltungsform einer Schriftart (z.B. Groteske, Antiqua) 
-  * Serifen: Querstriche an der Grund-, Mittel- und Oberlinie, die dem Auge Halt geben (Grund- und Mittellinie werden betont) und das Lesen längerer Texte vereinfachen 
-  * {{:​se:​TypographischeMasse.jpg|}} 
-  * Schriftdateiformate 
-    * Bitmap: Glyphen sind gerasterte Bilder 
-    * vektorbasiert:​ Skalierbare Beschreibung der Glyphen durch Stützpunkte,​ Liniensegmente und Kurvenbeschreibungen 
-      * True Type (TTF): spezifiziert von Adobe, Einsatz in Windows 
-      * Type1 Fonts (Postscript Fonts): spezifiziert von Adobe, besteht aus Klartextdateien (AFM, AMFM, ACFM), werden kompiliert in PFB (binär) oder PFA (ASCII), waren Standard auf Mac 
-      * OpenType (OTF): entwickelt von Adobe und Microsoft, Erweiterung von True Type, kann als Container für Type1 dienen 
-  * LaTeX: Markup-Sprache zur Textgestaltung,​ Stärke: mathematische Formeln, Trennung von Text und Gestaltung, muss kompiliert werden (z.B. in Postscript, PDF, HTML) 
-  * RTF (Rich Text Format): Austauschformat für Textverarbeitungssysteme,​ Klartext-ASCII-Dateien ohne Semantik, globale Einstellungen im Kopf der Datei, Befehle werden durch \ eingeleitet,​ Text durch {} abgetrennt 
- 
-==== Bilder ==== 
-  * Rasterbilder 
-    * Aufteilung in rechteckiges Raster, Rasterpunkt = Pixel mit Informationen zur Helligkeit und Farbe 
-    * Auflösung: räumliche Dichte der Pixel in horizontaler und vertikaler Richtung, Einheit dpi (dots per inch) 
-    * Serialisierung zeilenweise von oben links nach unten rechts 
-    * Pixel sind rechteckig (nicht zwangsläufig quadratisch,​ z.B. bei PAL 1:1,2) 
-    * Skalierung nur durch Interpolation möglich -> Verlust der Auflösung 
-  * Bitmap: verlustfreie Speicherung mit/ohne Lauflängencodierung,​ wird immer zeilenweise gelesen 
-    * Header: Datentyp und Dateigröße 
-    * BITMAP_INFO:​ Abmessungen des Bildes, Farbtiefe, Codierungsart 
-    * Nutzdaten 
-  * TIFF (Tagged Image File Format) 
-    * spezifiziert 1980 von Aldus, HP, Microsoft 
-    * besteht aus variabler Anzahl von Blöcken, die im Hauptdatenstrom per Zeiger referenziert werden -> beliebige Reihenfolge der Nutzdaten 
-    * Blöcke enthalten Tags (12byte) mit Informationen zum Bild (z.B. Höhe, Breite, bit/Pixel) 
-    * keine oder verlustlose Komprimierung möglich: RLE, LZW, Baseline 
-    * wird blockweise gelesen (z.B. nur sichtbarer Bereich bei Bildbearbeitung) 
-    * mehrere Farbsysteme (RGB, CMYK) und Alphakanäle möglich 
-    * TIFF 6.0: Rechte bei Adobe, kann mehrere Bildebenen speichern 
-  * GIF (Graphics Interchange Format): 1987 von UNISYS und Compuserve vorgestellt 
-    * variable Farbtabellen mit Größen der Zweierpotenzen bis 256 (global oder je Rasterblock),​ Farben aus RGB frei wählbar 
-    * eine Farbe kann als transparent definiert werden, keine Alphakanäle 
-    * seit GIF89a können Animationen als Bildfolgen definiert werden 
-    * Komprimierung mit LZW 
-    * Interlaced-Modus 
-    * bis 2004 lizenzpflichtig 
-  * PNG (Portable Network Graphics Format) 
-    * 48bit pro Pixel -> Echtfarbfotos (nur RGB) 
-    * lizenzfrei 
-    * Vorwärtsprädiktion und LZW 
-    * wie GIF: Farbtabellen,​ Interlaced-Modus,​ allerdings keine Animationen 
-    * Alphakanäle mit 8/16bit Genauigkeit 
-  * JPEG2000 
-    * anstatt DCT werden Wavelets verwendet 
-      * Nachteile DCT: bei Wertesprüngen werden viele Oberwellen benötigt, Amplituden von Cosinus nähern sich im Unendlichen keinem Grenzwert an 
-    * Verwendung von Hoch- und Tiefpassfiltern und arithmetischer Codierung 
-    * bei vergleichbarer Qualität 30% bessere Kompression als JPEG 
-    * Regions of interest: Bildbereiche,​ die weniger stark komprimiert werden 
-    * Resync-Marker erlauben Wiederaufnahme unterbrochener Übertragungen 
-    * Artefakte an Blockgrenzen treten nicht so stark hervor 
-    * stufenloser Übergang von verlustfreier zu verlustbehafteter Kompression wird unterstützt 
-  * vektorbasierte Formate 
-    * Grafik als Kombination aus Formen und Flächen (Linien, Kreise, Bezierkurven),​ Linienfarben und Füllungen mit Farbverläufen möglich 
-    * viele proprietäre Formate 
-    * Austauschformate im Bereich CAD/CAM: IGES (Initial Graphics Exchange Standard), DWF (Drawing Interchange Format) 
-  * SVG (Scalable Vector Graphics) 
-    * XML-Format, 2001 vom W3C spezifiziert 
-    * fehlende Unterstützung im Internet Explorer 
-    * wichtigste grafische Primitive: <​path>​ mit Attribut d für den Pfadverlauf (Großbuchstaben = absolute Angaben, Kleinbuchstaben = relative Angaben) 
-      * m = moveto, l = lineto, q = quadratische Bezierkurve (Stützpunkt,​ Zielpunkt), c = kubische Bezierkurve (2 Stützpunkte,​ Zielpunkt), z = Pfad schließen 
-    * Animationen sind möglich (Ableitung von Synchronized Multimedia Integration Language, SMIL) 
-    * Filter wie Gaußscher Weichzeichner sind möglich 
-    * Interaktion durch JavaScript ist möglich 
-  * Postscript 
-    * Seitenbeschreibungssprache von Adobe (1984) 
-    * ist eine eigenständige Programmiersprache 
-    * markiert Wendepunkt in der Digitalisierung des Druckgewerbes 
-    * Container für Text, Grafiken etc. 
-    * wird von einem Interpreter in Rasterdaten umgewandelt (z.B. direkt im Laserdrucker) 
-    * CUPS baut auf Postscript auf 
-    * wird ständig erweitert, kann JPEG verarbeiten,​ verschiedene Farbräume und Duplexmodi verwalten 
-    * abwärtskompatible ASCII-Dateien 
-    * Einbindung von Postscript-Dateien in DTP: EPS (Encapsulated Postscript),​ nur eine Seite je Datei möglich, Bounding Box beschreibt Größe 
-  * PDF (Portable Document Format) 
-    * von Adobe 1993 im Zusammenhang mit Acrobat vorgestellt 
-    * Ziel: Vorantreiben des papierlosen Büros durch Bereitstellung eines Formats für digitale Dokumente, Vereinfachung der Druckvorstufe 
-    * proprietäres Format, aber offengelegt und ISO-spezifiziert 
-    * Features in Version 8 
-      * Speicherung als komprimierter Byte-Code 
-      * Aufnahme von Metainformationen 
-      * Einbetten von Schriftarten 
-      * Hypertextkonzepte 
-      * Einbettung beliebiger anderer Dateien 
-      * elektronische Formulare mit interaktiven Formularelementen 
-      * Sicherheitsmechanismen 
-      * digitale Zertifikate und Unterschriften 
-      * Werkzeuge zur Überarbeitung und Korrektur von Dokumenten 
- 
-==== Audioformate ==== 
-  * WAV (Wave) 
-    * von IBM und Microsoft entwickelt 
-    * unkomprimiert oder mit verlustloser Kompression 
-    * beginnen mit Format-Chunk (Anzahl Kanäle, Samplingrate etc.) 
-    * danach folgen Datenchunks in PCM oder ADPCM (Adaptive Differential PCM) oder mit Dynamikkompression (a-Law, μ-Law) 
-    * zwischendurch können Fact-Chunks mit Sekundärdaten zum Musikstück oder Cue-Point-Chunks zur Synchronisation eingestreut sein 
-  * AIFF (Audio Interchange Format) 
-    * Verfahren von Apple, gleiches Verfahren wie bei Wave 
-    * kann bis zu 6 Kanäle und MIDI-Chunks aufnehmen 
-  * WAV und AIFF sind gängig bei Produktionen,​ da keine Generationsverluste auftreten und die Daten unkomprimiert vorliegen 
-  * MP3 und AAC unterliegen Patentschutz 
-  * Ogg: Open-Source-Datenformat für Audio- und Videodaten 
-    * Ogg-FLAC (Free Lossless Audio Codec) 
-      * verlustfreie Kompression bis zu 5:1 
-      * Unterteilung in Blöcke mit bis zu 65536 Samples und Prädiktion aus vier möglichen Modellen 
-      * Speicherung des Fehlers mit Rice-Codes 
-      * umfangreiche Taggingmöglichkeiten 
-    * Ogg-Vorbis 
-      * verlustbehaftet 
-      * 25% bessere Kompression im Vergleich zu MP3 
-      * 256 Audiokanäle 
-      * keine Begrenzung der Datenrate 
- 
-==== Videocontainer und -codecs ==== 
-  * AVI und WMV 
-    * Container für Videos unter Windows 
-    * stellen Header und Body bereit 
-    * machen keine Vorgaben für den Codec 
-    * mögliche Codecs 
-      * Cinepak: Keyframes und Differenzbilder,​ Rate 7:1 
-      * Indeo: von Intel, stark asymmetrisch,​ Rate 7:1 
-      * Microsoft Video-1: Rate 2:1 
-      * DivX: Hack des Microsoft MPEG4-Codecs,​ Verwendung zunächst strafrechtlich verfolgt, inzwischen frei von proprietärem Code 
-      * Xvid: ging 2002 durch Zusammenschluss der Programmierer von OpenDivX hervor 
-  * Quicktime 
-    * Multimedia-Framework von Apple (API und Dateiformat) 
-    * kann Audio-, Bild- und Videodateien und Animationen aufnehmen 
-    * hochintegrative Antwort auf Vielzahl verschiedener Codecs 
- 
-==== Medienproduktion ==== 
-  * Einsatzzwecke 
-    * Produktion von Hörspielen,​ Radiobeiträgen 
-    * Musikproduktion 
-    * Vertonung für Film und Fernsehen 
- 
-=== Audio === 
-  * Mikrofon: wandelt Schallwellen der Luft in elektrische Signale 
-    * dynamische Mikrofone 
-      * umgekehrter Lautsprecher,​ Membran schwingt, angehängter Magnet bewegt sich in Kupferspule -> Induktion 
-      * sehr robust, kompakte Bauform 
-      * durch ihre akustische Trägheit geeignet für Aufnahme lauter Schallereignisse (Trompete, Schlagzeug etc.) 
-      * Frequenzgang mittenbetont 
-    * Kondensatormikrofone 
-      * Schall verändert Abstand zweier metallischer,​ elektrisch geladener Membranen 
-      * erzeugte Spannung ist sehr gering -> Verstärkung nötig -> Phantomspeisung 48V 
-      * sehr empfindlich,​ feinerer Klang als dynamische Mikrofone 
-    * **Richtcharakteristik**:​ Schallempfindlichkeit rings um den Mittelpunkt (die Membran) des Mikrofons 
-      * {{:​se:​RichtcharakteristikaMikrofone.jpg|}} 
-  * Mischpult 
-    * zentrale Schaltstelle im Studio, führt mehrere Signalquellen zusammen 
-    * definiert Routen für die Signale, passt Stimmen an, führt Ausgabe den Lautsprechern zu 
-    * es gibt analoge, digitale und virtuelle Mischpulte 
-    * Klassifizierung nach Anzahl Ein-/​Ausgänge 
-    * Eingänge 
-      * Line und Mikro (wird stärker verstärkt),​ Potentiometer regelt jeweilige Verstärkung 
-      * Kanal-Insert:​ schickt das Signal durch ein Peripheriegerät (Effekte) 
-      * Aux-Weg: schickt mehrere Signale durch Effekte, Anteil des Effekts kann durch Potentiometer gesteuert werden 
-      * Equalizer: 3-4 Bandpassfilter für Verstärkung/​Dämpfung einzelner Frequenzbereiche 
-      * Kanalregler:​ regelt die Signalstärke des Kanals in der Stereosumme 
-      * Subgruppen: ermöglichen Abmischen mehrerer Kanäle (z.B. Schlagzeug) gleichzeitig 
-  * Audiospuren müssen getrennt verwaltet werden können (für weitreichende Klangformung) 
-    * früher wurden Mehrspurgeräte verwendet, heute digitalisierte Speicherung auf Festplatten 
-    * Vorteile der Digitalisierung 
-      * leichter zu verarbeiten und zu handhaben 
-      * Kapazität der Festplatten kann beliebig gesteigert werden 
-      * Anzahl der Aufnahmekanäle ist nur durch eingesetzte Soundkarte begrenzt 
-  * Ausstattungsmerkmale moderner Audiokarten 
-    * mehrere Ein- und Ausgänge 
-    * Analog-Digital-Wandler mit 96kHz und 24bit 
-    * Mikrofoneingänge mit Vorverstärker und Phantomspeisung 
-    * MIDI-Anschluss 
-  * MIDI (Musical Instrument Digital Interface) 
-    * 1981 von Roland eingeführte serielle Schnittstelle zur Steuerung von digitalen Musikinstrumenten (Keyboards, Synthesizer) 
-    * Steuerdaten zur Klangerzeugung und -aufnahme: Anschlag + Tonhöhe, Anschlagsstärke,​ Tonende, Controllerdaten 
-      * keine Audioinhalte! 
-    * Interface: 5-polige Rundbuchse mit 16 Kanälen 
-    * Daten 
-      * Channel Mode Messages: Steuerung von Musikgeräten 
-      * System Common Messages: Auswertung durch alle Empfänger am Interface 
-      * System Real-Time Messages: Synchronisation der Geräte 
-      * System Exclusive Messages: Hersteller-/​Geräte-spezifische Daten (Versionsupdates etc.) 
-    * {{:​se:​DatenpaketeMIDI.jpg|}} 
-      * Daten liegen nur eventorientiert (beim Auftritt eines musikalischen Ereignisses) an 
-      * Statusbyte enthält Ereignisart und MIDI-Kanal 
-      * Datenbytes enthalten Werte des Ereignisses (2bytes bei Pitch Bend) 
-    * {{:​se:​MIDIPorts.jpg|}} 
-  * Synthesizer 
-    * bereits 1900 wurde mit elektrischer Klangerzeugung experimentiert 
-    * {{:​se:​BlockschaltbildSynthesizer.jpg|}} 
-      * Oszillator: erzeugt (obertonreiches) kontinuierliches Signal (Wellenform:​ Sinus, Dreieck, Rechteck, Sägezahn) 
-      * Filter: formt Signal im Frequenzraum (Tiefpass-/​Hochpassfilter eliminieren hohe bzw. tiefe Frequenzen) 
-      * Verstärker:​ passt die Lautstärke an -> dynamisches Spiel 
-      * ADSR-Hüllkurve:​ beschränkt das Signal zeitlich (sonst würden alle Töne unendlich lange gehalten) 
-        * Attack: Zeit vom Anschlag des Tons bis zum vollen Signalpegel des Verstärkers 
-        * Decay: Zeit vom vollen Signalpegel bis zum Sustain (Verweilpegel) 
-        * Sustain: Lautstärkepegel,​ der nach der Decay-Zeit gehalten werden soll 
-        * Release: Zeit vom Sustain bis zum Nullpegel (Ausklingzeit) 
-      * Mixer: Mischen mehrerer Klangfarben aus der Verarbeitungskette 
-  * Klangeffekte 
-    * Audiomaterial muss gekonnt bearbeitet werden (Abmischung,​ gleichmäßige Abdeckung des Frequenzspektrums,​ Effekte) 
-    * Limiter: begrenzt Signal strikt auf eingestellte Lautstärkeschwelle 
-    * Kompressor: nach Überschreiten der Schwelle (Threshold) kann ein Verhältnis (Ratio) angegeben werden, zu dem das Signal abgeschwächt wird 
-      * Abstand zwischen lauten und leisen Tönen wird verringert -> kompakterer Klang, geringere Dynamik 
-    * Expander: Dynamik wird entgegengesetzt zum Kompressor erhöht 
-    * Noisegate: unterdrückt Rauschen durch Sperren eines Signals unter einem bestimmten Pegel 
-    * Hall: verleiht Sprache und Musik einen räumlichen Eindruck 
-    * Echo: periodische Widerholung des Signals 
-    * Chorus: doppelt das Signal leicht phasenverschoben und führt zu dichterem Klang 
-    * Verzerrer: bilden das analoge Zerren von übersteuerten Eingangskanälen nach 
-  * Werkzeuge und Software 
-    * Sample-Editoren:​ Bearbeitung digitaler Audiodateien 
-      * Schneiden, Zusammenfügen der Dateien in Wellenform 
-      * Steinberg Wavelab, Sonic Foundry'​s Sound Forge 
-    * Sequenzer: Musikproduktion 
-      * Aufzeichnen und Senden von MIDI-Daten 
-      * Einbindung von Synthesizern,​ Hard-Disk-Recording,​ Mischen 
-      * Steinberg Cubase, Apple Logic, Digidesign ProTools 
-      * Nachvertonung:​ Steinberg Nuendo 
-    * Mastering-Software:​ Tonstudio im Rechner (Effekte, Mehrkanal, Mischen, Mastering) 
- 
-=== Foto, Video und DTP === 
-  * **Desktop Publishing (DTP)**: Produktion von Druckerzeugnissen (Bücher, Zeitschriften,​ Flyer etc. vereinen Grafik, Foto und Text) mit Hilfe von Computertechnik 
-  * analoge Kameras 
-    * chemisches Filmmaterial,​ Entwicklung des Negativs zum Positiv, Kenngröße Lichtempfindlichkeit (ASA) 
-    * Sucherkameras:​ Sucher getrennt vom Linsensystem -> Parallaxe (Versatz) zwischen Sucher und Optik 
-    * Spiegelreflexkameras:​ Spiegel leiten die Lichtstrahlen der Optik in den Sucher 
-    * Unterscheidung nach 
-      * Kleinformatkameras (24x36mm, 35mm) 
-      * Mittelformatkameras (5x6cm - 6x9cm) 
-      * Großbildkameras (ab 6x9cmd) 
-        * meist für inszenierte Fotografie 
-    * Objektive: wichtig für Qualität der Bilder und die Bildgestaltung 
-      * Normalwinkelobjektive:​ Brennweite = Diagonale des Filmmaterials,​ 50-80mm 
-      * Teleoobjektive:​ enger Aufnahmewinkel,​ Makrofotografie,​ großer Zoom, Brennweite > normal 
-      * Weitwinkelobjektive:​ großer Aufnahmewinkel,​ Panoramen, große Objekte bei geringem Abstand, Brennweite < normal 
-  * digitale Fotografie 
-    * hier wird kein chemischer Film belichtet, sondern ein optischer Sensor (CCD Charged Coupled Device oder APS Active Pixel Sensor), Speicherung auf Karten, Kenngröße Anzahl lichtempfindlicher Zellen (Auflösung) 
-    * Qualität ist nicht mehr nur von Film und Objektiv abhängig, sondern auch von Auflösung des Chips 
-    * CCD-Chips sind kleiner als übliche Filme, daher muss die Optik sehr gut sein und darauf angepasst 
-    * Vorteile: direkte Verfügbarkeit des Bildes, geringe Kosten pro Bild 
-  * Belichtung 
-    * Blende: steuert die Lichtmenge, die auf den Film/Chip trifft (Durchmesser des Lichtkreises wird angepasst) 
-      * je größer die Blendenzahl,​ desto kleiner die Öffnung 
-      * die Blende steuert auch die Tiefenschärfe:​ wird sie geöffnet, werden die Elemente außerhalb der Schärfenebene unscharf 
-    * Belichtungszeit von 1/2000 Sekunde bis zu mehreren Minuten 
-    * um die optimale Kombination aus Blende und Belichtungszeit zu bestimmen, werden Belichtungsmesser (intern oder extern) verwendet 
-  * Bildbearbeitung 
-    * wichtig im professionellen Bereich 
-    * früher Aufgabe des Retuscheurs 
-    * heute: Photoshop oder The Gimp (nicht im professionellen Bereich) 
-      * Größenumrechnung/​Interpolation 
-      * Umrechnung in verschiedene Farbsysteme 
-      * Erstellen von Beschneidungspfaden 
-      * Bearbeiten von Alphakanälen 
-      * mehrere Bildebenen und -masken 
-      * Ebeneneffekte und Bildeffekte durch Filter 
-  * DTP 
-    * vektorbasierte Zeichenprogramme:​ Adobe Illustrator und Freehand 
-    * "​echtes"​ DTP (Adobe InDesign, Quark XPress) 
-      * professioneller Textsatz (Blocksatz, Silbentrennung,​ Umfluss) 
-      * freie Definition von Druckbögen 
-      * Anlegen von Musterseiten 
-      * Referenzierung von Bildelementen 
-      * "​Verpacken"​ aller Dateien 
-      * Funktionen für die Druckvorstufe (Farbseperation,​ Überfüllung,​ Typographie) 
-    * Arbeitsschritte der Druckvorstufe:​ DTP -> Reinzeichnung -> Belichtung (4x) -> Druck 
-  * Computeranimation:​ synthetische Erzeugung von Bildern mit dem Computer 
-    * Anwendungsgebiete:​ Werbung, Trailer, Spezialeffekte in Filmen, Computerspiele 
-    * Ablauf: Modellierung -> Reflexionsverhalten/​Texturierung -> Beleuchtung -> Kameradefinition -> Animation 
-    * Programme sind sehr komplex mit hoher Lernkurve 
-      * Autodesk 3D Studio Max und Maya, Maxon Cinema 4D, Blender 
-    * Körper werden aus Grundkörpern zusammengesetzt,​ die verformt werden können 
-    * bei Lebewesen bietet sich die Definition eines digitalen Skeletts an -> physikalisch plausible Bewegungen 
-    * Oberflächen können mit Texturen belegt werden und ihre Eigenschaften definiert werden (matt, glänzend, transparent etc.) 
-    * Objekte werden auf einer Bühne positioniert und belichtet (digitale Lichtquellen) 
-    * die Position der Kamera und auch die Blendeneinstellungen (Tiefenschärfe) können dann konfiguriert werden 
-    * Szenen können dann in einer Zeitachse animiert werden 
-  * Videokameras 
-    * professionelle Filmkameras arbeiten auch heute noch analog mit chemischer Belichtung 
-    * Auflösungen:​ PAL, 720p (1280x720 progressive),​ 1080i (1920x1080 interlaced) 
-    * Fernseh- und Videokameras arbeiten mit CCD-Chips, können aber die Daten auch analog ausgeben 
-    * günstige Geräte besitzen nur einen Chip, der vor jeder Zelle Filter für Farben hat (1 rot, 1 blau, 2 grün) 
-      * dadurch ist nur ein Viertel der Auflösung des Chips nutzbar -> fehlende Information muss interpoliert werden 
-    * hochwertige Kameras besitzen 3 Chips (einen für jede Grundfarbe) 
-      * {{:​se:​SchematischerAufbauVideokamera.jpg|}} 
-      * Vorverarbeitung vor dem Ausgang 
-        * Aperturkorrektur:​ korrigiert Unschärfen durch Tiefpassfilter um Chip vor ultravioletter Strahlung zu schützen 
-        * Gamma-Vorentzerrung:​ stellt die Kamerakennlinie ein (Verhältnis zwischen durchschnittlicher Grauwertverteilung am CCD und dem Ausgangssignal),​ Adaption zur Lichtumgebung 
-        * Weißabgleich:​ Anpassung an die Farbtemperatur (Sonnenlich 5500 Kelvin, Kunstlicht 3200 Kelvin) der Umgebung 
-        * Bildstabilisatoren:​ unterdrücken Verwackeln des Bildes bei manueller Kameraführung durch Bewegungserkennung anhand markanter Bildpunkte, die Auflösung des CCD muss hierfür größer sein als der aktive Bildausschnitt 
-    * analoge Aufzeichnungsmedien 
-      * Video-8: FBAS, 8mm 
-      * S-VHS und Hi8: S-Video, höhere Qualität als Video-8 
-      * Betacam SP: 1 Zoll Bandbreite, YUV, qualitativ sehr hochwertig 
-    * digitale Formate 
-      * DV (Konsortium von 60 Herstellern) 
-      * DVCAM (Sony) 
-      * DVCPRO, MiniDV (Standard im digitalen Bereich) 
-      * Digital 8 (Sony) 
-      * Aufzeichnung auf MiniDV-Kassetten (Intraframekompression mit DCT, 25MBit/s) 
-    * HD-Formate 
-      * HDV (Sony und JVC, MPEG2) 
-      * DVCPRO HD (Panasonic, Profisegment) 
-      * AVCHD (Panasonic und Sony, basiert auf AVC aus MPEG4) 
-  * Kameraführung:​ freihändig,​ mit Stativ, Steadycam, Kameradolly,​ Kamerakran 
-  * Videoschnitt 
-    * klassischer Schnitt: Kopien vom Originalnegativ -> physikalisches Schneiden -> Editor Decision List (EDL) -> Kopiermaster (Null-Kopie) 
-      * {{:​se:​KlassischerFilmschnitt.jpg|}} 
-    * linearer Schnitt: Kopieren des Films auf eine Masterkopie in linearer Reihenfolge 
-    * nicht-linearer Schnitt: Schnittpunkte werden lediglich referenziert (Cue-Points) -> EDL bis zuletzt änderbar 
-    * Onlineschnitt:​ Schnitt des Orinials 
-    * Offlineschnitt:​ Schnitt einer Arbeitskopie 
-    * Schnittplatz 
-      * analog: linear offline, mehrere Videor-Player,​ Video- und Audiomischpult,​ Effektmodul,​ Rekorder 
-      * digital: nicht-linear online, Einspielgeräte an Framegrapperhardware (Digitalisierung analoger Signale), Speicherung auf Festplatten,​ Schnittsoftware 
-    * digitaler Schnitt 
-      * Bereitstellung des Materials: Digitalisieren des benötigten Materials (Bilder, Videos etc.) 
-      * Rohschnitt: grobe Szeneneinteilung 
-      * Komposition:​ Szenen werden in Zeitleiste montiert, Überblenden und Effekte hinzugefügt 
-      * Feinschnitt:​ Feinheiten der Blenden und Effekte 
-      * Tonmischung:​ Originalaufnahmen,​ Stimmen und Musik werden gemischt 
-    * Produkte: AVID (Hard- und Software), AVID XPress DV, Adobe Premiere, Final Cut Pro 
-  * **Postproduction**:​ Auf- und Nachbereitung des rohen Film- oder Videomaterials bis zum Master 
-    * heute nicht nur Schnitt, sondern Einfügen von Effekten, Farbkorrekturen,​ Kontrastanpassungen,​ Fehlerkorrektur (Kratzer, Verwacklungen),​ Audio-Postproduction 
-    * Produkte: Apple Shake, Autodesk Combustion, Adobe AfterEffects 
-  * **Compositing**:​ Zusammenstellung von Bildfragmenten unterschiedlicher Herkunft zu einer Szene (Verschmelzen von Real-, Trick- und Animationsfilmsequenzen) 
-    * in-camera: Komposition beim Dreh (Matt-Painting,​ Rück-/​Vorprojektion) 
-    * Integration mittels Keying: bei Chromakey werden Farben als transparent definiert und Schauspieler werden vor Blue-/​Greenscreen gefilmt (Alphakanäle möglich) 
- 
-===== Internettechnologien ===== 
-  * Internet 
-    * 1960 ARPA-Net (vernetzte Großerchner von Universitäten) 
-    * 1971 E-Mail 
-    * 1989 WWW durch Tim Berners-Lee am CERN: erster Browser und HTML 
-  * URL und DNS 
-    * IP-Adresse identifiziert einen Netzteilnehmer eindeutig 
-    * Ports unterscheiden mehrere Datenströme eines Clients 
-    * IP + Port = Socket 
-    * URI/URL als Adresse zur Verbindungsherstellung mittels TCP/UDP 
-      * <​Schema>://​[<​Benutzer>​[:<​Passwort>​]@]<​Server-ip|Server-dn>​[:​Port]/​[<​Pfad>​][?<​Parameter-id>​=<​Parameter-Wert>​][&<​Parameter-id>​=<​Parameter-Wert>​][#<​Fragment>​] 
-    * DNS bindet IP-Adressen an Namen (Domains) 
-      * [Rechnername][<​Subdomain>​][Domain][TLD] 
-    * Domains kennzeichnen einen Verbund von Rechnern in einem Netzwerk (logische Einheit) 
-    * Top-Level-Domains:​ für Länder, Organisationen und Firmen 
-    * DNS-Server sind gekoppelt, damit nicht jeder Server alle IP-Adressen und Namen im Internet kennen muss (Relaying) 
-  * E-Mail: aus der Not zur Kommunikation heraus entstanden (Ray Tomlinson) 
-    * basiert auf drei ASCII-Protokollen 
-      * SMTP (Simple Mail Transfer Protocol, Port 25): Versand und Relay von Mails an MTAs (Mail Transfer Agent) 
-      * POP (Post Office Protocol, Port 110): Abrufen und Entfernen von Nachrichten von einem Server 
-      * IMAP (Internet Message Access Protocol, Port 143): Online-Zugriff auf ein Postfach, Mails verbleiben auf dem Server 
-  * HTTP (Hypertext Transfer Protocol, Port 80) 
-    * textbasiertes Protokoll zur Kommunikation zwischen Webbrowser und Webserver 
-    * GET zur Anfrage einer Seite 
-    * Antwort des Servers in der unterstützten Protokollversion mit Statuscode (200 = OK), Metadaten des Servers und der Seite Response-Header und die Seite im Response-Body,​ Bilder usw. werden danach übertragen 
-    * HTTP 1.0: seperate Verbindung für jede Ressource, HTTP 1.1: eine Verbindung reicht 
-    * Datenübertragung an den Server: GET (Länge eingeschränkt) und POST (im Request-Body) 
-    * zustandslos -> Sessions (servergespeichert und Cookies) 
-    * WebDAV (Web-based Distributed Authoring and Versioning):​ Webserver kann auch als Fileserver genutzt werden 
-  * FTP (File Transfer Protocol, Port 21) 
-    * ASCII-basierts Protokoll zum Austausch von Dateien 
-    * unverschlüsselte Übermittlung von Zugangsdaten -> SFTP 
-  * **Hyptertext**:​ in einem Hypertextsystem werden Dokumente, die Teil der Gesamtinformation sind, in Knoten abgelegt und durch Links miteinander verknüpft -> semantisches Netz 
-  * **XML** enthält, formt, benennt, strukturiert und schützt Informationen 
-    * Markupsprache mit Tags 
-    * Tag + Inhalt = Element 
-    * Vorteile: Textdateien,​ universell einsetzbar, frei erweiterbar,​ einfach zu verstehen 
-    * Definition von XML-Strukturen 
-      * Document Type Definition: gut für Elementstrukturen und Attributlisten,​ aber wenig Möglichkeiten zur Kontrolle des Textinhalts 
-      * Schema: selbst XML-Dateien mit weitreichenden Kontrollmöglichkeiten 
-    * XPath: Abfragesprache für XML ähnlich zu SQL für Datenbanken 
-      * boolesche Ausdrücke, Vergleichsoperationen,​ numerische Operationen,​ Stringmanipulation 
-    * XSLT (Extensible Style Language Transformation):​ Umwandlung von XML in beliebige andere Formate 
-      * Sonderform XSL-FO zur Umwandlung in PDF und Postscript 
-    * Beispiele für definierte Formate: DocBook, RelaxNG, MathML 
-  * HTML ist die Sprache des WWW und definiert sowohl strukturelle als auch gestalterische Elemente zur Erstellung von Internetseiten 
-    * HTML 4.1 lehnt sich nur an XML an, 2001 wurde XHTML spezifiziert,​ ein valides XML-Format 
-    * gute Webseiten nutzen HTML zur Strukturierung der Inhalte und CSS zur Gestaltung 
-  * CSS ist eine Technik um die Inhalte von XML-Dokumenten grafisch zu gestalten -> Trennung von Inhalt und Layout 
-    * Grundlage: Box-Modell mit Margin, Border und Padding 
-    * Einbindung per STYLE oder in seperaten Dateien 
-    * mittels Selektoren werden Elemente angegeben, die dann über Style-Definitionen formatiert werden sollen 
-      * Elemente können IDs und Klassen zugewiesen bekommen 
-    * kaskadierbar:​ mehrere CSS-Dateien pro Dokument, spezialisierte Definitionen überschreiben generische Definitionen 
-    * Problem: unterschiedliche Darstellung in den einzelnen Browsern 
-  * JavaScript: Skriptsprache,​ die in den Quelltext von HTML-Seiten eingebunden werden kann 
-    * Ausführung auf Client-Seite,​ wird interpretiert,​ schwache Typisierung,​ dynamische Bindung, OO-Konzepte,​ Einsatz meist für EventHandling 
-    * Zugriff auf Funktionen des Webbrowsers,​ Hilfsobjekte und HTML-Dokument 
-    * kein Zugriff auf Ressourcen des Clients (trotzdem Gefahr durch XSS) 
-  * Adobe Flash 
-    * 1997 von Macromedia veröffentlicht,​ erstes Programm für vektorbasierte Animationen in Webseiten 
-    * Objekte werden auf einer Bühne platziert und animiert, ActionScript wird für das Scripting verwendet 
-    * ActionScript 2.0 und Flash MX 2004 in 2003 -> OO-Konzepte 
-    * 2005 Übernahme durch Adobe 
-    * Autorenwerkzeug:​ Zeitleiste, Bühne, Bibliothek (vektorbasierte Objekte, Filme, Bilder etc.) 
-    * wichtigste Objekte: Instanzen der Klasse MovieClip -> Container für beliebige in Flash adressierbare Elemente 
-      * stellen Attribute und Methoden für Skalierung, Manipulation der Zeitleiste, Bewegung usw. möglich sind 
-      * ein Film muss nicht stringent der Zeitleiste folgen, sondern kann durch ActionScript geloopt, gestoppt, fortgesetzt werden 
-      * prinzipiell kann jedes aktive Element ActionScript aufnehmen 
-    * Vorteile von ActionScript 2.0 
-      * durchgängig objektorientiertes Konzept 
-        * Vererbung, Polymorphismus,​ Interfaces 
-      * Klassen können in eigenen Klassendateien verwaltet und wiederverwendet werden 
-      * Bibliotheksobjekte lassen sich mit Klassen verknüpfen -> Trennung Design/Code 
-      * Event-Handler Factory-Klassen (MovieLoader) setzen bekannte Patterns der OOP um 
-    * Verbreitungsgrad des Plugins 85%-95% 
-    * "​echte"​ Multimedia-Webseiten können erzeugt werden 
-    * Nachladen von Bildern, Animationen,​ XML-Anbindung an Middleware, Audioeinbettung 
-    * Flash-Video-Forma FLV ist proprietär und nicht offengelegt,​ hohe Verbreitung durch YouTube 
-    * 2004 erste Version von Flex als integriertes Werkzeug zur Erstellung von Multimedia-fähigen Oberflächen für Websites 
-      * Flex-Builder:​ IDE für Multimedia-Frontends (Eclipse-Plugin) 
-      * große Klassenbibliothek für Datenein- und -ausgabe und Layoutgestaltung 
-      * Layout wird mit MXML-Dateien realisiert 
-      * Kommunikation zum Server mittels WebServices 
-      * Flex Data-Services ermöglicht weitere Anbindung über RPC, JMS, EJB und ColdFusion, Java-Anwendung,​ die z.B. im Tomcat deployt werden kann, sehr teuer 
-      * {{:​se:​SchichtenAdobeFlex.jpg|}} 
-    * Flash dient zur Erstellung von RIA mit Animation, Sound, Video 
-    * trotz großer Verbreitung geringere Client-Unterstützung als AJAX 
- 
-===== Serverseitige Technologien ===== 
-  * CGI (Common Gateway Interface): Mechanismus zum Aufruf externer Programme durch HTML-Seiten 
-    * einfaches Deployment durch interpretierte schwach-typisierte Sprachen: Perl (Practical Extraction and Report Language), PHP, Python, Ruby 
-  * Java 
-    * Entwicklung durch Sun Microsystems mit Ziel der Plattformunabhängigkeit,​ seit 2007 OpenSource 
-    * Java lehnt sich an C++ an, aber 
-      * keine Mehrfachvererbung 
-      * Garbage-Collector anstatt Destruktoren 
-      * keine Pointer 
-    * Java-Code wird in Bytecode übersetzt, der auf der Laufzeitumgebung (JRE) läuft 
-    * Applets: kleine Java-Applikationen auf dem Webserver, die in der JRE des Clients in einer Sandbox laufen, heute kaum noch relevant 
-    * Servlet-API und JSP 
-      * Servlets verarbeiten HTTP-Requests und -Responses 
-      * JSP vereinfachen die Arbeit mit HTML: hier wird Code in HTML eingebettet 
-      * benötigt Servlet-Container wie Apache Tomcat 
-    * J2EE enthält Komponenten und Bibliotheken um mehrschichtige,​ datenbank- und transaktionsgestützte Webanwendungen zu entwickeln 
-      * Skalierbarkeit,​ Performance,​ Interoperabilität 
-      * benötigt einen Application Server mit den folgenden Komponenten 
-        * EJB: Geschäftslogik (Session-, Entity- und Message-Driven-Beans) 
-        * Servlets / JSP: HTML-Fassade für die Clients 
-        * JSF: baut auf JSP auf und ermöglicht den Einsatz von kompletten Komponenten zur Datenein- und -ausgabe und Navigationsregeln mittels XML, Daten werden von Managed-Beans verwaltet 
-        * JNDI: Schnittstelle für Anwendungen zur Nutzung beliebiger Datencontainer 
-        * JMS: API für asynchrone Nachrichtenverarbeitung 
-        * JDBC: API für relationalen Datenbankzugriff 
-        * JTA: Transaktionsmanagement 
-        * JPA: einfache Erstellung von Entity-Beans und Datenbankanbindung 
-        * Java Mail: Schnittstelle für Mailverarbeitung 
-      * insbesondere bei großen Webapplikationen im Einsatz 
-      * Nachteil ist die starre Vorgabe von Richtlinien für die Beans etc. -> Overhead 
-      * Reaktion von Sun in EJB 3.0 und Java EE 5.0: Annotationen kennzeichnen Klassen (z.B. Persistenz und WebServices) 
-        * Vorteile: Daten sind in der Klasse selbst definiert, Compiler kann Fehler erkennen 
-  * .NET-Framework 
-    * erste Ansätze durch ASP -> Einbettung von VisualBasic in HTML, Auswertung durch IIS 
-    * ASP reichte schnell nicht mehr aus -> .NET-Framework 
-    * Laufzeitumgebung CLR: verschiedene Programmiersprachen möglich (VB, C++, C#), Übersetzung in Intermediate Language (IL), die dann ausgeführt wird 
-    * {{:​se:​AufbauCLR.jpg|}} 
-    * Common Type System als Datentyp-Grundlage für alle Programmiersprachen 
-      * {{:​se:​DatentypenCTS.jpg|}} 
-    * Features: Exception-Handling,​ Garbage-Collector,​ JIT, Sicherheitsmechanismen,​ umfangreiche Klassenbibliothek,​ Reflection, Generics 
-      * Performance liegt zwangsläufig unter nativem Maschinencode 
-    * Einsatz für mehrschichtige Webanwendungen 
-      * ADO.NET für DB-Zugriff, Logik in DLLs, Präsentation durch ASP.NET 
-      * Datenabstraktion durch LINQ 
-    * WPF: Framework für die Erstellung von Anwendungsoberflächen und Darstellung multimedialer Inhalte 
-      * 2D und 3D Rendering Engine 
-      * XAML (Extensible Application Markup Language) zur Beschreibung der Oberflächen -> Trennung Design und Logik 
-      * Silverlight 
-  * Ruby on Rails 
-    * Ruby: schwach typisierte OO-Skriptsprache 
-    * Rails: Webframework 
-    * convention over configuration,​ don't repeat yourself 
-    * Prinzipien: semantische Dateistruktur,​ Active Records, Scaffolding,​ offene Architektur,​ AJAX integriert 
- 
-===== Web 2.0 ===== 
-  * RSS/Atom: XML-Format für Neuigkeiten auf Webseiten 
-    * Schema für XML-Dateien 
-    * Einbindung über LINK in HTML-Seiten 
-  * Podcasts: Neologismus aus iPod und Broadcast 
-    * Basis ist RSS 
-    * MP3s werden per RSS verteilt 
-    * normale Nutzer können "ihr eigenes Radioprogramm erstellen"​ 
-    * Vorteil: asynchrones Anhören der Inhalte nach Download 
-  * Blogs: Abkürzung für Weblog 
-    * Massenphänomen dank einfacher Software (CMS) 
-  * Wikis 
-    * Benutzer erstellen Inhalte gleichberechtigt 
-    * setzen sich auch in Unternehmen durch (Kundenbindung,​ Marketing) 
-    * Problem: Qualitätssicherung 
-    * Folksonomy 
-  * AJAX (Asynchronous JavaScript and XML) 
-    * durchbricht das bisherige Paradigma der Webseiten durch dynamisches Laden von Teilbereichen der Seiten 
-    * Kommunikation mit Server über XMLHttpRequest-Objekt 
-    * Beispiele: Google Mail, Yahoo 
-    * Möglichkeiten:​ Drag-and-Drop,​ Online-Anwendungen wie Office, Eingabevalidierung on-the-fly 
-    * Benutzer braucht kein Plugin (nur JavaScript) 
-    * Probleme 
-      * Unterstützung durch die verschiedenen Browser (insb. IE) 
-      * Browser-Buttons funktionieren nicht mehr 
-      * Lesezeichen können nicht genutzt werden 
-      * höherer Traffic 
-      * Debugging ist schwierig 
-  * Mashups: Vernetzung von Komponenten verschiedener Herkunft in einem Angebot (Content-Syndication) 
-    * Beispiele: Google Maps, Videoportale,​ Yahoo Pipes 
-  * Web 2.0: keine Technologie,​ sondern der Wandel der Rezeption und Produktion multimedialer Inhalte im Internet 
-    * Grenze zwischen Produzent und Konsument weicht auf 
-    * Content wird von den Benutzern erstellt 
-    * Anwendungen verlagern sich auf Webserver 
-    * Probleme: Datenschutz,​ Sicherheit, Kriminalität,​ Medienkompetenz ist nötig 
- 
-===== Virtual Reality ===== 
-  * dem Benutzer wird ein Modell der Welt dargeboten, das der Benutzer beeinflussen kann 
-  * Kennzeichen 
-    * Interaktivität:​ Einwirken auf die künstliche Welt 
-    * Gleichzeitigkeit:​ unmittelbare Reaktion der künstlichen Welt 
-    * Immersion: Verschmelzen mit der künstlichen Welt 
-  * Einsatzgebiete 
-    * Computerspiele 
-    * Medizintechnik 
-    * Produktdesign 
-  * die Immersion erfordert neue Eingabemöglichkeiten (HCI, Human Computer Interface) 
-    * neue physikalische und biologische Sensoren 
-      * Datenhandschuh 
-      * Monitorbrille (Head Mounted Display) 
-      * Lagesensoren 
-      * Tracking-Systeme 
-  * VRML (Virtual Reality Modeling Language) 
-    * 1994 erschienen, 1996 kam Version 2 und VRML Konsortium wurde gegründet 
-    * ASCII-basierte Sprache zur Beschreibung von 3D-Objekten 
-    * wird vom Browser interpretiert 
-    * plattformunabhängig 
-    * kann Animationen,​ Videos, Bilder, Klänge beinhalten 
-    * ermöglicht Benutzerinteraktion 
-    * Probleme: Browserkompatibilität,​ langsam 
-    * Beschreibung der virtuellen Welt durch einen Szenegraph in Baumstruktur mit verschiedenen Knotentypen 
-      * Geometrikknoten für geometrische Formen 
-      * Interpolatoren für zeitliche Veränderungen 
-      * Sensoren generieren benutzer- oder zeitgesteuert Ereignisse 
-      * Umgebungsknoten für Lichtquellen,​ Audio etc. 
-      * Ansichtknoten für Navigations- und Kamerainformationen 
-      * Scriptknoten steuern Ereignisse per JavaScript 
-    * Unterschied zu 3D-Programmen:​ VRML wird nicht gerendert, sondern zur Laufzeit dargestellt 
-    * 2003 wurde X3D eingeführt,​ das VRML in ein XML-Format überführt 
- 
-===== Links ===== 
-  * [[http://​www.sengpielaudio.com/​RechnerSonephon.htm|Zusammenhang zwischen sone und phon]] 
-  * [[http://​de.wikipedia.org/​wiki/​Farbunterabtastung|Farbunterabtastung]] 
- 
-===== ToDo ===== 
-  * Unterscheidung BAS / FBAS 
-  * LZW und Huffman im Baum durchspielen 
-  * logarithmische und 3-Step-Suche am Beispiel durchführen 
-  * Unterschiede zwischen wichtigen Themen herausarbeiten 
-  * Flash und ActionScript anschauen 
- 
-===== Klausur ===== 
-  * Gegenüberstellungen 
-  * Zusammenhänge 
-  * Detailfragen 
-  * Flash-Codeausschnitte kommentieren 
-  * Hilfsmittel:​ Taschenrechner 
-  * Skype: maddias.r 
- 
-===== Begriffe ===== 
-  * [[http://​de.wikipedia.org/​wiki/​Determiniertheit_%28Algorithmus%29|Determiniertheit]] 
-    * Ein Algorithmus ist eine **eindeutige** Abbildung. 
-  * [[http://​de.wikipedia.org/​wiki/​Determinismus_%28Algorithmus%29|Determinismus]] 
-    * Zu jedem Zeitpunkt ist der nachfolgende Abarbeitungsschritt eines Algorithmus eindeutig festgelegt. 
-  * [[http://​de.wikipedia.org/​wiki/​Kontinuit%C3%A4t|Kontinuität]] (analoge Signale) 
-    * lückenloser Zusammenhang,​ Stetigkeit, stetige Werte 
-  * [[http://​de.wikipedia.org/​wiki/​Diskretheit|Diskretheit]] 
-    * räumliche oder zeitliche Trennung von Objekten oder Ereignissen 
-  * [[http://​de.wikipedia.org/​wiki/​Schwingungsdauer|Periode]] = Schwingungsdauer **T** 
-    * Eine Periode ist die kleinste Zeitdauer einer sich wiederholenden physikalischen Erscheinung. 
-  * [[http://​de.wikipedia.org/​wiki/​Frequenz|Frequenz]] **f** 
-    * Kehrwert der Periode 
-  * [[http://​de.wikipedia.org/​wiki/​Harmonische_Schwingung|harmonische Schwingung]] 
-    * Zeitabhängigkeit der veränderlichen Zustandsgrößen ist sinusförmig. 
-    * t und F sind unabhängig von Amplitude. 
-  * [[http://​de.wikipedia.org/​wiki/​Grenzwert_%28Folge%29|Konvergenz]] <> Divergenz 
-    * Existenz eines Grenzwertes bei einer Folge 
-  * [[http://​de.wikipedia.org/​wiki/​Fraktal|Fraktal]] 
-    * Gebilde mit hoher Selbstähnlichkeit (Beispiel: Mandelbrot-Menge) 
-  * [[http://​de.wikipedia.org/​wiki/​Korrelation|Korrelation]] 
-    * Beziehung zwischen zwei oder mehr statistischen Variablen (nicht zwingend kausal). 
- 
-===== ToRead ===== 
-  * DIN 33401 
se/multimedia.txt · Zuletzt geändert: 2014-04-05 11:42 (Externe Bearbeitung)