Ich selbst habe Informatik mit Schwerpunkt Telekommunikation studiert, kenne mich also gut mit Multiplexverfahren aus.
DOCSIC war allerdings nie ein Schwerpunkt daher habe ich eine Frage an die echten Profis hier eventuell ergibt sich auch eine Grundlage zu einer Diskussion.
Und zwar frage ich mich warum man für den Upload TDMA genutzt hat, statt zb CDMA.
TDMA hat ja bekannte Nachteile, zb hoher Aufwand für die Synchronisation, langsam wenn es darum geht auf Veränderungen oder Störungen zu regieren, bei einem Verlust eines Paketes muss der Sender auf einen Zeitschlitz warten bis er das Paket erneut senden kann. Dazu kommen begrenzte Anzahl an maximalen Nutzern, Probleme bei hoher Leitungslänge, nicht optimale Nutzung der Bandbreite usw. Das alles sind auch Gründe warum man bei UMTS auf CDMA gesetzt hat statt wie bei GSM auf TDMA. Bei DOCSIS 3.1 setzt man ja endlich auf OFDM was die schmalbandigen Störung welche einen kompletten Kanal unbrauchbar machen können und andere Probleme endlich beheben sollte.
Jetzt stellt ich mir natürlich die Frage warum man auf TDMA gesetzt hat, oder war das bedingt dadurch das DOCSIS 3.0 Netzte kompatibel zu DOCSIS 2.0 Endgeräten sein sollten?
Freu mich auf eure fachkundigen Antworten.
Warum TDMA für den Upstream
Forumsregeln
Forenregeln
Bitte gib bei der Erstellung eines Threads im Feld „Präfix“ an, ob du Kunde von Vodafone Kabel Deutschland („[VFKD]“), von Vodafone West („[VF West]“), von eazy („[eazy]“) oder von O2 über Kabel („[O2]“) bist.
Forenregeln
Bitte gib bei der Erstellung eines Threads im Feld „Präfix“ an, ob du Kunde von Vodafone Kabel Deutschland („[VFKD]“), von Vodafone West („[VF West]“), von eazy („[eazy]“) oder von O2 über Kabel („[O2]“) bist.
-
- Kabelfreak
- Beiträge: 1046
- Registriert: 19.08.2014, 22:40
-
- Insider
- Beiträge: 5086
- Registriert: 28.06.2015, 13:26
Re: Warum TDMA für den Upstream
Der Hauptgrund dürfte, wie vermutet, die Abwärtskompatibilität sein...
Andernfalls hätte VFKDG vor einigen Jahren, als man DOCSIS3.0-Geräte eingeführt hat, alle Altgeräte "entsorgen" können/austauschen müssen.
Da der Phy-Layer zwischen DOCSIS2.0 und DOCSIS3.0 eigentlich "nur" um das Channel-Bonding erweitert wurde, merkt ein DOCSIS2-Gerät gar nicht, dass es mit DOCSIS3-Geräten zusammen in einem Netz betrieben wird.
Und zur Frage warum generell: Schau mal, von wann die ursprüngliche DOCSIS-Spezifikation (1.1/2.0) stammt - dann dürfte dir auch klar sein, warum man eher auf TDMA statt auf CDMA gesetzt hat. Selbst im Mobilfunknetz setzt man bei GSM auf TDMA - die Generierung des notwendigen Taktes erfolgt dabei aus dem ursprünglichen Frequenzsignal der Basisstation, erweitert um einen Latenzkorrekturfaktor für die Signallaufzeit (teilt ebenfalls die Basisstation mit).
Bei CDMA muss man übrigens genau so taktsynchron arbeiten wie bei TDMA - ansonsten zerschießt du ebenfalls das Signal (oder es wird an der Basisstation/im CMTS nicht korrekt abgetastet).
Davon abgesehen hast du ja bei DOCSIS3 - wie auch bei GSM - noch FDMA (sprich die Nutzung verschiedener Upstream-Frequenzen) - es ist also keineswegs so einfach, wie du es dir vorstellst...
Und was OFDM anbetrifft:
OFDM ist ein Modulationsverfahren (ähnlich QAM) und hat nichts mit dem Zugriffsverfahren (CDMA/TDMA/FDMA) zu tun.
Auch bei OFDM muss man am Ende mittels Zugriffsverfahren festlegen, wer wann (TDMA) oder wer wo (CDMA/FDMA) dran ist.
Andernfalls hätte VFKDG vor einigen Jahren, als man DOCSIS3.0-Geräte eingeführt hat, alle Altgeräte "entsorgen" können/austauschen müssen.
Da der Phy-Layer zwischen DOCSIS2.0 und DOCSIS3.0 eigentlich "nur" um das Channel-Bonding erweitert wurde, merkt ein DOCSIS2-Gerät gar nicht, dass es mit DOCSIS3-Geräten zusammen in einem Netz betrieben wird.
Und zur Frage warum generell: Schau mal, von wann die ursprüngliche DOCSIS-Spezifikation (1.1/2.0) stammt - dann dürfte dir auch klar sein, warum man eher auf TDMA statt auf CDMA gesetzt hat. Selbst im Mobilfunknetz setzt man bei GSM auf TDMA - die Generierung des notwendigen Taktes erfolgt dabei aus dem ursprünglichen Frequenzsignal der Basisstation, erweitert um einen Latenzkorrekturfaktor für die Signallaufzeit (teilt ebenfalls die Basisstation mit).
Bei CDMA muss man übrigens genau so taktsynchron arbeiten wie bei TDMA - ansonsten zerschießt du ebenfalls das Signal (oder es wird an der Basisstation/im CMTS nicht korrekt abgetastet).
Davon abgesehen hast du ja bei DOCSIS3 - wie auch bei GSM - noch FDMA (sprich die Nutzung verschiedener Upstream-Frequenzen) - es ist also keineswegs so einfach, wie du es dir vorstellst...
Und was OFDM anbetrifft:
OFDM ist ein Modulationsverfahren (ähnlich QAM) und hat nichts mit dem Zugriffsverfahren (CDMA/TDMA/FDMA) zu tun.
Auch bei OFDM muss man am Ende mittels Zugriffsverfahren festlegen, wer wann (TDMA) oder wer wo (CDMA/FDMA) dran ist.
-
- Kabelfreak
- Beiträge: 1046
- Registriert: 19.08.2014, 22:40
Re: Warum TDMA für den Upstream
Du vermischst hier gerade etwas.
FDMA hat erst mal nichts damit zu tun das du mehrere Frequenzen nutzt, sondern das mehrere Sender auf dem selben Träger gleichzeitig senden können ohne das man es Zeitlich trennen muss, da man Spreizcodes eingesetzt.
Bei TDMA senden mehrere Sender auf dem selben Träger aber zu unterschiedlichen Zeiten.
Und OFDM (Orthogonal Frequency-Division Multiplexing) ist eine Sonderform des FDMA es ersetzt keinesfalls eine Quadraturamplitudenmodulation.
Außerdem FDMA arbeitet eben nicht Taktsynchron (nur Bitsynchrone )was ja der große Vorteil ist, ansonsten würde es keinen Sinn ergeben unterschiedliche Spreizcodes zu nutzten.
FDMA hat erst mal nichts damit zu tun das du mehrere Frequenzen nutzt, sondern das mehrere Sender auf dem selben Träger gleichzeitig senden können ohne das man es Zeitlich trennen muss, da man Spreizcodes eingesetzt.
Bei TDMA senden mehrere Sender auf dem selben Träger aber zu unterschiedlichen Zeiten.
Und OFDM (Orthogonal Frequency-Division Multiplexing) ist eine Sonderform des FDMA es ersetzt keinesfalls eine Quadraturamplitudenmodulation.
Außerdem FDMA arbeitet eben nicht Taktsynchron (nur Bitsynchrone )was ja der große Vorteil ist, ansonsten würde es keinen Sinn ergeben unterschiedliche Spreizcodes zu nutzten.
-
- Fortgeschrittener
- Beiträge: 203
- Registriert: 24.01.2007, 06:29
Re: Warum TDMA für den Upstream
Ab DOCSIS 2.0 gab es die Moeglichkeit fuer SC-QAM Kanaele im Upstream zwischen TDMA und S-CDMA zu waehlen.
Die Mehrheit der Kabelnetzbetreiber ist bei TDMA geblieben, dafuer gab es auch mehrere Gruende aus dem operativen Bereich:
1. Das Prinzip der Dynicamic Ingress Blocker (dib-Switches) konnte nur mit TDMA genutzt werden.
2. War S-CDMA neben TDMA bei Kabelmodems ab DOCSIS 2.0 Pflicht, so sah es bei der Empfaengerseite (CMTS) schon ganz anders aus. Viele Hersteller hatten S-CDMA nur optionial verfuegbar, manche weit verbreiteten Baugruppen gar nicht. Ich selber habe nur von einem Betreiber aus Oesterreich gehoert, dass er S-CDMA eingesetzt hatte. Da war es dann eine Herausforderung, als Bigband-Networks seine DOCSIS/CMTS-Produktlinie, welche S-CDMA unterstuetzte, gecancelt hatte.
3. Die Kapazitaet pro SC-QAM Kanal, egal welcher Kanalbandbreite, bedingt durch die verwendete Symbolrate war bei S-CDMA auch nicht hoeher. Zwar erlaubt der Standard bei einem SC-QAM-Kanal mit S-CDMA auch 128-QAM (TDMA erlaubt hier max 64-QAM), aber das zusaetzliche Bit mehr in der Spektralen Effizienz ging durch eine zusaetzlichen Faltungscode bei S-CDMA wieder drauf.
4. RFoG Systeme, welche ja auch schon zu DOCSIS 2.0 Zeiten in den USA entstanden sind, waren auch nur mit TDMA einsetzbar.
5. Die Timing-Ansprueche fuer S-CDMA sind auch einen Tacken komplizierter als bei TDMA.
6. Wurde schon erwaehnt: Abwaehrtskompatibiliaet zu alten DOCSIS 1.x Kabelmodems. Rueckwegspektrum ist ein knappes Gut und nicht jeder kann fuer die neue HW-Generation einen eigenen Frequenzbereich opfern.
Fuer den Rest: Blick in die Signatur
Die Mehrheit der Kabelnetzbetreiber ist bei TDMA geblieben, dafuer gab es auch mehrere Gruende aus dem operativen Bereich:
1. Das Prinzip der Dynicamic Ingress Blocker (dib-Switches) konnte nur mit TDMA genutzt werden.
2. War S-CDMA neben TDMA bei Kabelmodems ab DOCSIS 2.0 Pflicht, so sah es bei der Empfaengerseite (CMTS) schon ganz anders aus. Viele Hersteller hatten S-CDMA nur optionial verfuegbar, manche weit verbreiteten Baugruppen gar nicht. Ich selber habe nur von einem Betreiber aus Oesterreich gehoert, dass er S-CDMA eingesetzt hatte. Da war es dann eine Herausforderung, als Bigband-Networks seine DOCSIS/CMTS-Produktlinie, welche S-CDMA unterstuetzte, gecancelt hatte.
3. Die Kapazitaet pro SC-QAM Kanal, egal welcher Kanalbandbreite, bedingt durch die verwendete Symbolrate war bei S-CDMA auch nicht hoeher. Zwar erlaubt der Standard bei einem SC-QAM-Kanal mit S-CDMA auch 128-QAM (TDMA erlaubt hier max 64-QAM), aber das zusaetzliche Bit mehr in der Spektralen Effizienz ging durch eine zusaetzlichen Faltungscode bei S-CDMA wieder drauf.
4. RFoG Systeme, welche ja auch schon zu DOCSIS 2.0 Zeiten in den USA entstanden sind, waren auch nur mit TDMA einsetzbar.
5. Die Timing-Ansprueche fuer S-CDMA sind auch einen Tacken komplizierter als bei TDMA.
6. Wurde schon erwaehnt: Abwaehrtskompatibiliaet zu alten DOCSIS 1.x Kabelmodems. Rueckwegspektrum ist ein knappes Gut und nicht jeder kann fuer die neue HW-Generation einen eigenen Frequenzbereich opfern.
Fuer den Rest: Blick in die Signatur
mfg
wittmann
RFC 1925 Rule (4)
Some things in life can never be fully appreciated nor understood unless experienced firsthand.
Some things in networking can never be fully understood by someone who neither builds commercial networking equipment nor runs an operational network.
wittmann
RFC 1925 Rule (4)
Some things in life can never be fully appreciated nor understood unless experienced firsthand.
Some things in networking can never be fully understood by someone who neither builds commercial networking equipment nor runs an operational network.
-
- Insider
- Beiträge: 5086
- Registriert: 28.06.2015, 13:26
Re: Warum TDMA für den Upstream
Ich glaube du aber auch...
Falsch - FDMA ist die Nutzung von unterschiedlichen Trägerfrequenzen (deshalb ja der Name "Frequency Division Multiple Access").FDMA hat erst mal nichts damit zu tun das du mehrere Frequenzen nutzt, sondern das mehrere Sender auf dem selben Träger gleichzeitig senden können ohne das man es Zeitlich trennen muss, da man Spreizcodes eingesetzt.
Die Spreizcodes kommen bei CMDA ("Code Division Multiple Access") zum Einsatz.
In ersterem Fall brauchst du unterschiedliche Träger (daher ja auch Frequency Division), auf denen parallel die Nutzer senden können - und zwar mit völlig unterschiedlichen Timings.
In zweiterem Fall hast du genau einen Träger, jedoch senden die Nutzer ihr Schmalbandspektrum moduliert mit dem jeweiligen Spreizcode. Hierfür ist ebenfalls eine Sychronisierung des Taktes zwischen Sender und Empfänger notwendig (u.a. damit der Sender und der Empfänger immer den "richtigen" Teil des Spreizcodes benutzen) - jedoch ist ggfs. keine Synchronisierung mit anderen Nutzern notwendig.
Richtig - dafür müssen natürlich alle Stationen synchron sein...Bei TDMA senden mehrere Sender auf dem selben Träger aber zu unterschiedlichen Zeiten.
Etwas anderes habe ich aber auch nicht behauptet - ist aber auch gerade der Namensgeber ["Time Division Multiple Access"]...
Richtig - auf den Subcarriern muss natürlich "normal" moduliert werden - der Unterschied gegenüber der jetzigen Verwendung ist, dass man die Carrier statt mit knapp 7 MHz Bandbreite bei DOCSIS3.1 dann nur noch mit 25 oder 50 kHz betreibt.Und OFDM (Orthogonal Frequency-Division Multiplexing) ist eine Sonderform des FDMA es ersetzt keinesfalls eine Quadraturamplitudenmodulation.
Ich schrieb, dass man für CDMA ebenfalls taktsynchron sein muss - über FDMA habe ich nicht gesprochen.Außerdem FDMA arbeitet eben nicht Taktsynchron was ja der große Vorteil ist, ansonsten würde es keinen Sinn ergeben unterschiedliche Spreizcodes zu nutzten.
Und Spreizcodes sind nicht FDMA sondern CDMA. Und hier muss man sehr wohl zwischen Sender & Empfänger taktsynchron sein - andernfalls würde der Empfänger den falschen Teil des Spreizcodes auf das Signal anwenden und keine Nutzdaten mehr erhalten.
-
- Kabelfreak
- Beiträge: 1046
- Registriert: 19.08.2014, 22:40
Re: Warum TDMA für den Upstream
@Wittmann
Danke, das ist die Antwort die ich mir erhofft hatte.
Das ganze wurde also Praktisch schon zu DOCSIS 2.0 Zeiten entschieden oder hat sich so entwickelt, und wurde bei DOCSIS 3.0 übernommen.
Weißt du zufällig wie groß ein Zeitschlitz ist und wie viele Zeitschlitze es pro Kanal gibt?
Dank dir.
Danke, das ist die Antwort die ich mir erhofft hatte.
Das ganze wurde also Praktisch schon zu DOCSIS 2.0 Zeiten entschieden oder hat sich so entwickelt, und wurde bei DOCSIS 3.0 übernommen.
Weißt du zufällig wie groß ein Zeitschlitz ist und wie viele Zeitschlitze es pro Kanal gibt?
Dank dir.
-
- Kabelfreak
- Beiträge: 1046
- Registriert: 19.08.2014, 22:40
Re: Warum TDMA für den Upstream
Sry natürlich das war mein Fehler, hatte irgendwie CDMA im Kopf und habe über FDMA geschrieben.reneromann hat geschrieben: ↑21.04.2018, 11:31Ich glaube du aber auch...
In ersterem Fall brauchst du unterschiedliche Träger (daher ja auch Frequency Division), auf denen parallel die Nutzer senden können - und zwar mit völlig unterschiedlichen Timings.
In zweiterem Fall hast du genau einen Träger, jedoch senden die Nutzer ihr Schmalbandspektrum moduliert mit dem jeweiligen Spreizcode. Hierfür ist ebenfalls eine Sychronisierung des Taktes zwischen Sender und Empfänger notwendig (u.a. damit der Sender und der Empfänger immer den "richtigen" Teil des Spreizcodes benutzen) - jedoch ist ggfs. keine Synchronisierung mit anderen Nutzern notwendig.
-
- Fortgeschrittener
- Beiträge: 203
- Registriert: 24.01.2007, 06:29
Re: Warum TDMA für den Upstream
Eine einfache Antwort ist da leider nicht moeglich, da dies von der Konfiguration des jeweiligen Anbieters abweichen kann.Skykeeper hat geschrieben: ↑21.04.2018, 11:31 @Wittmann
Danke, das ist die Antwort die ich mir erhofft hatte.
Das ganze wurde also Praktisch schon zu DOCSIS 2.0 Zeiten entschieden oder hat sich so entwickelt, und wurde bei DOCSIS 3.0 übernommen.
Weißt du zufällig wie groß ein Zeitschlitz ist und wie viele Zeitschlitze es pro Kanal gibt?
Dank dir.
Basis ist 10,24 MHz. Ein Time-Tick ist das 64-fache der Basis-Frequenz und somit 6,25us lang. Je Nach Mini-Slot-Konfiguration kann das ein Time-Tick mal 0^2 (1), 1ˆ2 (2), 2ˆ2 (4) bis 7ˆ2 (128) sein.
Im Feld findet man oft eine Mini-Slot-Size von 1 (160.000), 2 (80.000) oder 4 (40.000) vor. Die zwei (2) nimmt man, wenn auch Modulation bis QPSK verwendet werden sollen. Hat was damit zu tun, wie viele Byte mindestens pro Burst verschickt werden muessen. Also Typisch duerften dann 80.000 Zeitschlitze pro Sekunde sein.
-
- Fortgeschrittener
- Beiträge: 203
- Registriert: 24.01.2007, 06:29
Re: Warum TDMA für den Upstream
argh.. korrekt ist natuerlich:
Basis ist 10,24 MHz. Ein Time-Tick ist das 64-fache der Basis-Frequenz und somit 6,25us lang. Je Nach Mini-Slot-Konfiguration kann das ein Time-Tick mal 2ˆ0 (1), 2ˆ1 (2), 2ˆ2 (4) bis 2ˆ7 (128) sein.
Leider war die Edit-Funktion nicht mehr verfuegbar.