Digitalisierung von Sprache: Sampling, Quantisierung, Kodierung, Multiplexing
Eingeordnet in Elektronik
Geschrieben am in
Deutsch mit einer Größe von 6,83 KB
Punkt 7: Techniken zum Digitalisieren von Sprache und MIC-Kanal
7.1 Sampling / Nyquist-Theorem
Oder Nyquist-Theorem: Um ein Signal mit der höchsten Frequenz fmax verlustfrei zu übertragen, ist es nicht notwendig, das gesamte kontinuierliche Signal zu senden; es genügt, das Signal in diskreten Proben zu übertragen. Die Abtastfrequenz fm muss mindestens das Doppelte der maximalen Frequenz fmax des Signals betragen (fm >= 2 · fmax).
Beispiel: Wenn ein Signal eine maximale Frequenz von 4 kHz hat, reicht eine Abtastrate von mindestens 8 kHz.
Begründung des Satzes: Zur Wiederherstellung des ursprünglichen Signals ist es ausreichend, ein Tiefpassfilter zu verwenden, das nur den Bereich von fmin–fmax passieren lässt. Bei Telefonsignalen (Frequenzband zwischen 300 und 3400 Hz) ergibt sich nach Nyquist eine Mindestabtastfrequenz von ca. 6800 Hz; in der Praxis wird jedoch eine Abtastfrequenz von 8000 Hz verwendet.
Unterschiede zwischen idealer und realer Abtastung: Bei idealer Abtastung hätten die Proben eine zeitliche Breite von Null. Bei realer Abtastung werden die Proben über einen sehr kurzen, aber endlichen Zeitraum genommen, der im Vergleich zum Abstand zweier aufeinanderfolgender Proben klein ist.
7.2 Quantisierung
Quantisierung: Die Quantisierung ordnet den gewonnenen Proben bestimmte diskrete Werte zu, abhängig von der gewünschten Qualität der Signalwiedergabe. Die Proben können nicht mit unendlich vielen Amplitudenwerten übertragen werden; das Amplitudenspektrum ist beschränkt. Um dies zu überwinden, wird der gesamte Amplitudenbereich, der Betriebsbereich, in eine endliche Anzahl von Intervallen unterteilt — die Quantisierungsstufen. Alle Proben, die in dasselbe Intervall fallen, erhalten denselben quantisierten Wert.
Die Folge dieses Verfahrens ist, dass der exakte Amplitudenwert durch einen näherungsweisen digitalen Wert ersetzt wird; dieser Fehler wird als Quantisierungsfehler bezeichnet.
Gleichmäßige Quantisierung: Der Bereich wird in gleich große Intervalle unterteilt, z. B. 256 gleich große Stufen. Die obere und untere Grenze definieren die maximal übertragbare Amplitude. Der Quantisierungsfehler ergibt sich aus der Differenz zwischen dem wahren Wert und dem quantisierten Wert; er nimmt ab, wenn die Anzahl der Intervalle erhöht wird.
Eine vollständige Beseitigung des Quantisierungsfehlers ist nur bei unendlich vielen Intervallen möglich, was praktisch nicht umsetzbar ist, weil:
- Jeder diskrete Wert einer Probe muss digital kodiert werden; bei 256 Stufen werden 8 Bits pro Probe benötigt.
- Erhöht man die Anzahl der Intervalle, steigt die benötigte Bitrate und damit die Bandbreite.
Bei gleichmäßiger Quantisierung ändert sich das Ausgangssignal nur, wenn die Eingangsspannung von einem Intervall in das nächste wechselt. Die Differenz zwischen Ausgangsspannung und Eingangsspannung (Vs - Ve) ist der Quantisierungsfehler. Dieser Fehler verfälscht das rekonstruierte Signal und führt zu einer Verzerrung, die als Quantisierungsverzerrung oder Quantisierungsrauschen bezeichnet wird.
Nicht-uniforme Quantisierung: Das Problem bei der gleichmäßigen Quantisierung ist, dass das Signal-Rausch-Verhältnis (SNR) für kleine Signalamplituden schlechter wird. Zur Aufrechterhaltung eines stabilen SNR gibt es zwei Alternativen:
- Erhöhung der Anzahl der Quantisierungsstufen (oft nicht praktikabel wegen erhöhter Bandbreitenanforderungen).
- Verwendung einer nicht-uniformen Quantisierung, bei der die Intervalle auf niedrigen Pegeln engmaschiger und auf hohen Pegeln gröber sind (Companding).
Companding / µ-law und A-law: Die nicht-uniforme Quantisierung wird oft in Sprachsystemen verwendet und ist durch Kodierungsgesetze wie A-law (in Europa) und µ-law (mu-law) (in Nordamerika) standardisiert. Diese Gesetze reduzieren den relativen Quantisierungsfehler bei kleinen Amplituden durch nichtlineare Vorverzerrung vor der Quantisierung und inverse Nachdehnung bei der Dekodierung.
7.3 Konsolidierung (Kodierung)
Konsolidierung: Nach Abtastung und Quantisierung werden die Werte als Folge binärer Nullen und Einsen dargestellt und übertragen.
Struktur und Codewort (8-Bit) — PCM / MIC: Bei 256 Quantisierungsstufen sind 8‑Bit-Binärsequenzen erforderlich, um jede Probe zu kodieren. Deshalb besteht jedes Codewort typischerweise aus 8 Bits. Eine gebräuchliche Struktur ist:
- Gruppe P (1 Bit): Zeigt die Polarität der Probe an (positiv = 1, negativ = 0).
- Gruppe A (3 Bits): Bestimmen das Segment; mit 3 Bits lassen sich 2^3 = 8 Segmente je Polarität darstellen (insgesamt 16 Segmente).
- Gruppe B (4 Bits): Diese 4 Bits bestimmen die Feinstquantisierung innerhalb des Segments (16 mögliche Stufen pro Segment).
Dank dieser Struktur eines 8-Bit-PCM-Wortes (im Text als MIC bezeichnet) kann jedem Intervall eines Segments ein eindeutiger digitaler Wert zugewiesen werden. So werden die möglichen Werte der gesendeten Proben definiert.
Punkt 8: MIC-Kanal-Multiplexing und Übertragungshierarchien
8.1 Unterschiede zwischen TDM und FDM
Frequenzmultiplexing (FDM): FDM basiert auf der Modulation verschiedener Signale auf unterschiedliche Trägerfrequenzen, womit die Signale verschiedene Frequenzbänder einnehmen. Dadurch können mehrere Signale gleichzeitig über denselben Übertragungskanal ohne gegenseitige Interferenzen übertragen werden.
Zeitsmultiplexing (TDM): TDM wird verwendet, um verschiedene digitale Signale zu multiplexen. Im Wesentlichen nutzt man die Leitung nacheinander für kurze Zeitabschnitte der einzelnen Signale: Die Senderseite nimmt periodisch Proben der Kanäle und fügt diese abwechselnd zu einer Gesamtabfolge zusammen. Am empfangenden Ende werden die verschiedenen Signale synchron getrennt. TDM ist ein grundlegender Prozess in der digitalen Telefonie. Auf der Senderseite müssen die Proben der jeweiligen Kanäle mit perfektem Timing geliefert werden.
Im TDM-Prozess bildet eine Folge von nacheinander gesendeten, kodierten Proben ein Rahmenmuster, das als Aggregat bezeichnet werden kann.
Begriffe
Zeitrahmen: Der Zeitraum zwischen zwei aufeinanderfolgenden Proben desselben Kanals.
Time Slot (Zeitslot): Dauer, die einer Probe eines Kanals in einem Rahmen zugewiesen ist.