mason hat geschrieben:1000byte hat geschrieben:
Wer Kapazitäten suggeriert un Bandbreiten bewirbt, muss diese auch liefern können.
Er muss auch davon ausgehen, dass im schlimmsten Fall alle mal gleichzeitig ihre Leistung nutzen wollen.
Wer das dann nicht erbringt, betreibt zumindest mal irreführende Werbung, wenn nicht sogar vorsätzlichen Betrug.
Sehr witzig. Internet, Webhosting, Handynetze, usw. sind ganz anders aufgebaut. (sind alle ein shared Medium)
Die Topologie wird immer anhand von Berechnungen auf Statistik-Basis durchgeführt.
Eine Mobilfunk-Basisstation kann zum Beispiel 30 bis 90 gleichzeitige Gespräche abwickeln, je nach Ausführung,
aber pro Station existieren mehrere hundert bis mehrere tausend Handys.
Das alle gleichzeitig telefonieren ist unmöglich. Deswegen brechen bei Katastrophen die Netze zusammen.
Alles im Internet ist noch weniger auf extreme Auslastung ausgelegt, an erster Stelle die Webserver.
Sehr schön zu beobachten wenn interessante Links oder Homepages in TV-Sendern genannt werden.
Wenn das bei ARD, RTL, ZDF, usw. passiert brechen ca. 90 Prozent der Server zusammen.
Für mehrere hunderttausend Zugriffe in kurzer Zeit sind die nicht ausgelegt, selbst bei großen Firmen.
Halbwegs stabil bleiben nur Seiten die mit externer Lastverteilung über extra Dienstleister arbeiten,
wie zum Beispiel Nacamar. (Sky und Kabel Deutschland sind auch Kunden dort)
Die Netztopologie zum Kunden ist das schwächste Glied in Kabelnetzen.
Ich habe jetzt die Daten nicht im Kopf, aber die Techniker hier im Forum hatten das schon mal beschrieben.
Schon wenn eine Handvoll Kunden mit vollen 100 MBit "saugen" ist ein ganzen Gebiet ausgelastet.
Jeder Kunde der dann noch hinzu kommt würde die Geschwindigkeit drosseln.
(ich finde gerade die Übersicht nicht wie viel Kapazität pro Abschnitt zur Verfügung steht)