Warum TDMA für den Upstream

Für alle Technik-Themen bezogen auf Internet und Telefonie, die weder AVM- noch Arris-/CommScope-/Technicolor-/Compal-/Sagemcom- bzw. Hitron-Produkte betreffen. Speedprobleme werden hier lediglich thematisiert, wenn sie auf die verwendeten Geräte zurückzuführen sind (die nicht zu den o.g. Produkten zählen).
Forumsregeln
Forenregeln


Bitte gib bei der Erstellung eines Threads im Feld „Präfix“ an, ob du Kunde von Vodafone Kabel Deutschland („[VFKD]“), von Vodafone West („[VF West]“), von eazy („[eazy]“) oder von O2 über Kabel („[O2]“) bist.
Benutzeravatar
Skykeeper
Kabelfreak
Beiträge: 1046
Registriert: 19.08.2014, 22:40

Warum TDMA für den Upstream

Beitrag von Skykeeper »

Ich selbst habe Informatik mit Schwerpunkt Telekommunikation studiert, kenne mich also gut mit Multiplexverfahren aus.
DOCSIC war allerdings nie ein Schwerpunkt daher habe ich eine Frage an die echten Profis hier eventuell ergibt sich auch eine Grundlage zu einer Diskussion.

Und zwar frage ich mich warum man für den Upload TDMA genutzt hat, statt zb CDMA.
TDMA hat ja bekannte Nachteile, zb hoher Aufwand für die Synchronisation, langsam wenn es darum geht auf Veränderungen oder Störungen zu regieren, bei einem Verlust eines Paketes muss der Sender auf einen Zeitschlitz warten bis er das Paket erneut senden kann. Dazu kommen begrenzte Anzahl an maximalen Nutzern, Probleme bei hoher Leitungslänge, nicht optimale Nutzung der Bandbreite usw. Das alles sind auch Gründe warum man bei UMTS auf CDMA gesetzt hat statt wie bei GSM auf TDMA. Bei DOCSIS 3.1 setzt man ja endlich auf OFDM was die schmalbandigen Störung welche einen kompletten Kanal unbrauchbar machen können und andere Probleme endlich beheben sollte.

Jetzt stellt ich mir natürlich die Frage warum man auf TDMA gesetzt hat, oder war das bedingt dadurch das DOCSIS 3.0 Netzte kompatibel zu DOCSIS 2.0 Endgeräten sein sollten?

Freu mich auf eure fachkundigen Antworten.
reneromann
Insider
Beiträge: 5086
Registriert: 28.06.2015, 13:26

Re: Warum TDMA für den Upstream

Beitrag von reneromann »

Der Hauptgrund dürfte, wie vermutet, die Abwärtskompatibilität sein...
Andernfalls hätte VFKDG vor einigen Jahren, als man DOCSIS3.0-Geräte eingeführt hat, alle Altgeräte "entsorgen" können/austauschen müssen.

Da der Phy-Layer zwischen DOCSIS2.0 und DOCSIS3.0 eigentlich "nur" um das Channel-Bonding erweitert wurde, merkt ein DOCSIS2-Gerät gar nicht, dass es mit DOCSIS3-Geräten zusammen in einem Netz betrieben wird.

Und zur Frage warum generell: Schau mal, von wann die ursprüngliche DOCSIS-Spezifikation (1.1/2.0) stammt - dann dürfte dir auch klar sein, warum man eher auf TDMA statt auf CDMA gesetzt hat. Selbst im Mobilfunknetz setzt man bei GSM auf TDMA - die Generierung des notwendigen Taktes erfolgt dabei aus dem ursprünglichen Frequenzsignal der Basisstation, erweitert um einen Latenzkorrekturfaktor für die Signallaufzeit (teilt ebenfalls die Basisstation mit).
Bei CDMA muss man übrigens genau so taktsynchron arbeiten wie bei TDMA - ansonsten zerschießt du ebenfalls das Signal (oder es wird an der Basisstation/im CMTS nicht korrekt abgetastet).
Davon abgesehen hast du ja bei DOCSIS3 - wie auch bei GSM - noch FDMA (sprich die Nutzung verschiedener Upstream-Frequenzen) - es ist also keineswegs so einfach, wie du es dir vorstellst...

Und was OFDM anbetrifft:
OFDM ist ein Modulationsverfahren (ähnlich QAM) und hat nichts mit dem Zugriffsverfahren (CDMA/TDMA/FDMA) zu tun.
Auch bei OFDM muss man am Ende mittels Zugriffsverfahren festlegen, wer wann (TDMA) oder wer wo (CDMA/FDMA) dran ist.
Benutzeravatar
Skykeeper
Kabelfreak
Beiträge: 1046
Registriert: 19.08.2014, 22:40

Re: Warum TDMA für den Upstream

Beitrag von Skykeeper »

Du vermischst hier gerade etwas.

FDMA hat erst mal nichts damit zu tun das du mehrere Frequenzen nutzt, sondern das mehrere Sender auf dem selben Träger gleichzeitig senden können ohne das man es Zeitlich trennen muss, da man Spreizcodes eingesetzt.
Bei TDMA senden mehrere Sender auf dem selben Träger aber zu unterschiedlichen Zeiten.

Und OFDM (Orthogonal Frequency-Division Multiplexing) ist eine Sonderform des FDMA es ersetzt keinesfalls eine Quadraturamplitudenmodulation.

Außerdem FDMA arbeitet eben nicht Taktsynchron (nur Bitsynchrone )was ja der große Vorteil ist, ansonsten würde es keinen Sinn ergeben unterschiedliche Spreizcodes zu nutzten.
Benutzeravatar
wittmann
Fortgeschrittener
Beiträge: 203
Registriert: 24.01.2007, 06:29

Re: Warum TDMA für den Upstream

Beitrag von wittmann »

Ab DOCSIS 2.0 gab es die Moeglichkeit fuer SC-QAM Kanaele im Upstream zwischen TDMA und S-CDMA zu waehlen.
Die Mehrheit der Kabelnetzbetreiber ist bei TDMA geblieben, dafuer gab es auch mehrere Gruende aus dem operativen Bereich:

1. Das Prinzip der Dynicamic Ingress Blocker (dib-Switches) konnte nur mit TDMA genutzt werden.
2. War S-CDMA neben TDMA bei Kabelmodems ab DOCSIS 2.0 Pflicht, so sah es bei der Empfaengerseite (CMTS) schon ganz anders aus. Viele Hersteller hatten S-CDMA nur optionial verfuegbar, manche weit verbreiteten Baugruppen gar nicht. Ich selber habe nur von einem Betreiber aus Oesterreich gehoert, dass er S-CDMA eingesetzt hatte. Da war es dann eine Herausforderung, als Bigband-Networks seine DOCSIS/CMTS-Produktlinie, welche S-CDMA unterstuetzte, gecancelt hatte.
3. Die Kapazitaet pro SC-QAM Kanal, egal welcher Kanalbandbreite, bedingt durch die verwendete Symbolrate war bei S-CDMA auch nicht hoeher. Zwar erlaubt der Standard bei einem SC-QAM-Kanal mit S-CDMA auch 128-QAM (TDMA erlaubt hier max 64-QAM), aber das zusaetzliche Bit mehr in der Spektralen Effizienz ging durch eine zusaetzlichen Faltungscode bei S-CDMA wieder drauf.
4. RFoG Systeme, welche ja auch schon zu DOCSIS 2.0 Zeiten in den USA entstanden sind, waren auch nur mit TDMA einsetzbar.
5. Die Timing-Ansprueche fuer S-CDMA sind auch einen Tacken komplizierter als bei TDMA.
6. Wurde schon erwaehnt: Abwaehrtskompatibiliaet zu alten DOCSIS 1.x Kabelmodems. Rueckwegspektrum ist ein knappes Gut und nicht jeder kann fuer die neue HW-Generation einen eigenen Frequenzbereich opfern.

Fuer den Rest: Blick in die Signatur ;)
mfg

wittmann

RFC 1925 Rule (4)
Some things in life can never be fully appreciated nor understood unless experienced firsthand.
Some things in networking can never be fully understood by someone who neither builds commercial networking equipment nor runs an operational network.
reneromann
Insider
Beiträge: 5086
Registriert: 28.06.2015, 13:26

Re: Warum TDMA für den Upstream

Beitrag von reneromann »

Skykeeper hat geschrieben: 21.04.2018, 11:01 Du vermischst hier gerade etwas.
Ich glaube du aber auch...
FDMA hat erst mal nichts damit zu tun das du mehrere Frequenzen nutzt, sondern das mehrere Sender auf dem selben Träger gleichzeitig senden können ohne das man es Zeitlich trennen muss, da man Spreizcodes eingesetzt.
Falsch - FDMA ist die Nutzung von unterschiedlichen Trägerfrequenzen (deshalb ja der Name "Frequency Division Multiple Access").
Die Spreizcodes kommen bei CMDA ("Code Division Multiple Access") zum Einsatz.

In ersterem Fall brauchst du unterschiedliche Träger (daher ja auch Frequency Division), auf denen parallel die Nutzer senden können - und zwar mit völlig unterschiedlichen Timings.
In zweiterem Fall hast du genau einen Träger, jedoch senden die Nutzer ihr Schmalbandspektrum moduliert mit dem jeweiligen Spreizcode. Hierfür ist ebenfalls eine Sychronisierung des Taktes zwischen Sender und Empfänger notwendig (u.a. damit der Sender und der Empfänger immer den "richtigen" Teil des Spreizcodes benutzen) - jedoch ist ggfs. keine Synchronisierung mit anderen Nutzern notwendig.
Bei TDMA senden mehrere Sender auf dem selben Träger aber zu unterschiedlichen Zeiten.
Richtig - dafür müssen natürlich alle Stationen synchron sein...
Etwas anderes habe ich aber auch nicht behauptet - ist aber auch gerade der Namensgeber ["Time Division Multiple Access"]...
Und OFDM (Orthogonal Frequency-Division Multiplexing) ist eine Sonderform des FDMA es ersetzt keinesfalls eine Quadraturamplitudenmodulation.
Richtig - auf den Subcarriern muss natürlich "normal" moduliert werden - der Unterschied gegenüber der jetzigen Verwendung ist, dass man die Carrier statt mit knapp 7 MHz Bandbreite bei DOCSIS3.1 dann nur noch mit 25 oder 50 kHz betreibt.
Außerdem FDMA arbeitet eben nicht Taktsynchron was ja der große Vorteil ist, ansonsten würde es keinen Sinn ergeben unterschiedliche Spreizcodes zu nutzten.
Ich schrieb, dass man für CDMA ebenfalls taktsynchron sein muss - über FDMA habe ich nicht gesprochen.
Und Spreizcodes sind nicht FDMA sondern CDMA. Und hier muss man sehr wohl zwischen Sender & Empfänger taktsynchron sein - andernfalls würde der Empfänger den falschen Teil des Spreizcodes auf das Signal anwenden und keine Nutzdaten mehr erhalten.
Benutzeravatar
Skykeeper
Kabelfreak
Beiträge: 1046
Registriert: 19.08.2014, 22:40

Re: Warum TDMA für den Upstream

Beitrag von Skykeeper »

@Wittmann

Danke, das ist die Antwort die ich mir erhofft hatte.
Das ganze wurde also Praktisch schon zu DOCSIS 2.0 Zeiten entschieden oder hat sich so entwickelt, und wurde bei DOCSIS 3.0 übernommen.
Weißt du zufällig wie groß ein Zeitschlitz ist und wie viele Zeitschlitze es pro Kanal gibt?

Dank dir.
Benutzeravatar
Skykeeper
Kabelfreak
Beiträge: 1046
Registriert: 19.08.2014, 22:40

Re: Warum TDMA für den Upstream

Beitrag von Skykeeper »

reneromann hat geschrieben: 21.04.2018, 11:31
Skykeeper hat geschrieben: 21.04.2018, 11:01 Du vermischst hier gerade etwas.
Ich glaube du aber auch...

In ersterem Fall brauchst du unterschiedliche Träger (daher ja auch Frequency Division), auf denen parallel die Nutzer senden können - und zwar mit völlig unterschiedlichen Timings.
In zweiterem Fall hast du genau einen Träger, jedoch senden die Nutzer ihr Schmalbandspektrum moduliert mit dem jeweiligen Spreizcode. Hierfür ist ebenfalls eine Sychronisierung des Taktes zwischen Sender und Empfänger notwendig (u.a. damit der Sender und der Empfänger immer den "richtigen" Teil des Spreizcodes benutzen) - jedoch ist ggfs. keine Synchronisierung mit anderen Nutzern notwendig.
Sry natürlich das war mein Fehler, hatte irgendwie CDMA im Kopf und habe über FDMA geschrieben.
Benutzeravatar
wittmann
Fortgeschrittener
Beiträge: 203
Registriert: 24.01.2007, 06:29

Re: Warum TDMA für den Upstream

Beitrag von wittmann »

Skykeeper hat geschrieben: 21.04.2018, 11:31 @Wittmann

Danke, das ist die Antwort die ich mir erhofft hatte.
Das ganze wurde also Praktisch schon zu DOCSIS 2.0 Zeiten entschieden oder hat sich so entwickelt, und wurde bei DOCSIS 3.0 übernommen.
Weißt du zufällig wie groß ein Zeitschlitz ist und wie viele Zeitschlitze es pro Kanal gibt?

Dank dir.
Eine einfache Antwort ist da leider nicht moeglich, da dies von der Konfiguration des jeweiligen Anbieters abweichen kann.

Basis ist 10,24 MHz. Ein Time-Tick ist das 64-fache der Basis-Frequenz und somit 6,25us lang. Je Nach Mini-Slot-Konfiguration kann das ein Time-Tick mal 0^2 (1), 1ˆ2 (2), 2ˆ2 (4) bis 7ˆ2 (128) sein.

Im Feld findet man oft eine Mini-Slot-Size von 1 (160.000), 2 (80.000) oder 4 (40.000) vor. Die zwei (2) nimmt man, wenn auch Modulation bis QPSK verwendet werden sollen. Hat was damit zu tun, wie viele Byte mindestens pro Burst verschickt werden muessen. Also Typisch duerften dann 80.000 Zeitschlitze pro Sekunde sein.
Benutzeravatar
wittmann
Fortgeschrittener
Beiträge: 203
Registriert: 24.01.2007, 06:29

Re: Warum TDMA für den Upstream

Beitrag von wittmann »

wittmann hat geschrieben: 21.04.2018, 11:45 [...]Basis ist 10,24 MHz. Ein Time-Tick ist das 64-fache der Basis-Frequenz und somit 6,25us lang. Je Nach Mini-Slot-Konfiguration kann das ein Time-Tick mal 0^2 (1), 1ˆ2 (2), 2ˆ2 (4) bis 7ˆ2 (128) sein.[...]
argh.. korrekt ist natuerlich:

Basis ist 10,24 MHz. Ein Time-Tick ist das 64-fache der Basis-Frequenz und somit 6,25us lang. Je Nach Mini-Slot-Konfiguration kann das ein Time-Tick mal 2ˆ0 (1), 2ˆ1 (2), 2ˆ2 (4) bis 2ˆ7 (128) sein.

Leider war die Edit-Funktion nicht mehr verfuegbar.