Grundlagen der Digitalen Videotechnik: Sampling, DCT und MPEG-Frames
Eingeordnet in Elektronik
Geschrieben am in
Deutsch mit einer Größe von 4,09 KB
Grundlagen der digitalen Signalverarbeitung
Abtastsignal (Sampling)
Das Abtastsignal wird in festen Zeitintervallen aus einem kontinuierlichen (analogen) Signal gewonnen. Gemäß dem Nyquist-Theorem muss die Abtastfrequenz (Samplefrequenz) mindestens das Doppelte der maximalen Signalfrequenz betragen, um das ursprüngliche Signal korrekt rekonstruieren zu können.
Diskrete Kosinus-Transformation (DCT)
Die Diskrete Kosinus-Transformation (DCT) ist eine mathematische Operation, die zur Bildkomprimierung eingesetzt wird. Sie zerlegt das Bild in Koeffizienten. Bei der Komprimierung werden Koeffizienten mit geringer Bedeutung (oft nahe 0) verworfen, da sie visuell kaum ins Gewicht fallen.
IT-Sensor (Interline Transfer Sensor)
Der IT-Sensor (Interline Transfer Sensor) ist eine spezielle Art von CCD-Bildsensor (Charge-Coupled Device). Er ermöglicht die Aufnahme und den Transfer von Bildinformationen, indem er vertikale Spalten kombiniert und die Ladungen schnell ausliest.
Gammakorrektur
Die Gammakorrektur ist notwendig, da Kathodenstrahlröhren (CRT) und andere Displays kein lineares Verhältnis zwischen der angelegten Spannung und der resultierenden Luminanz aufweisen. Die Korrektur wird in der Kamera angewendet, um dieses nicht-lineare Verhältnis auszugleichen und eine korrekte Darstellung der Helligkeitswerte zu gewährleisten.
Messtechnik in der Videotechnik
Vektorskop (Vectorscope)
Das Vektorskop ist ein Messgerät für TV-Signale, das zur Analyse des Chrominanzsignals (Farbinformation) und seiner Komponenten (U und V) dient. Es ermöglicht die präzise Messung von:
- Pegel und Phase des Farbsynchronsignals (Burst).
- Farbton (Phase) und Sättigung (Amplitude) der Farben.
Auf dem Vektorskop wird die Farbinformation als Vektor dargestellt. Die Position des Vektors (Phase) gibt den Farbton an, während die Länge des Vektors (Amplitude) die Sättigung repräsentiert.
Digitalisierung und Quantisierung
Quantisierung des Videosignals
Bei der Digitalisierung des Videosignals wird jede Signalprobe quantisiert. Aufgrund des endlichen Speichers wird die Amplitude des Signals in diskrete Stufen unterteilt. Die Anzahl der Bits, die zur Darstellung dieser Stufen verwendet wird (oft auf der Y-Achse dargestellt), bestimmt die Auflösung und die Anzahl der möglichen Ton- und Farbwerte.
Der Unterschied zwischen dem ursprünglichen Eingangssignal und dem quantisierten Ausgangssignal wird als Quantisierungsfehler bezeichnet. Dieser Fehler ist direkt proportional zur Anzahl der verwendeten Bits (je mehr Bits, desto geringer der Fehler).
Videokompression und Frame-Typen
Fehlerkorrektur und Makroblöcke
Im Rahmen der digitalen Videokompression werden Bilder in Makroblöcke unterteilt. Zur Gewährleistung der Synchronisation, Identifikation und Fehlerkorrektur werden diesen Blöcken zusätzliche Informationen hinzugefügt. Diese Struktur bildet die Grundlage für die digitalen Bildrahmen.
I-, P- und B-Frames
Bei der Komprimierung (z. B. MPEG) werden verschiedene Bildtypen verwendet, um eine höhere Kompressionsrate zu erzielen:
- I-Frames (Intra-coded Frames): Dies sind vollständige Referenzbilder, die unabhängig von anderen Frames kodiert werden. Sie dienen als Ankerpunkte für die Kompression.
- P-Frames (Predicted Frames): Diese Bilder enthalten nur die Differenzinformationen zum vorhergehenden I- oder P-Frame. Sie ermöglichen eine deutlich höhere Kompressionsrate als I-Frames.
- B-Frames (Bi-directional Predicted Frames): Diese Bilder bieten die höchste Kompression, da sie Schätzungen und Vergleiche sowohl zum vorhergehenden als auch zum nachfolgenden I- oder P-Frame heranziehen.
Die meisten ausgestrahlten Signale bestehen aus einer Kombination dieser Frame-Typen, wobei P- und B-Frames den Großteil der Daten ausmachen.