Ab wie viel Meter tritt Signalverlust auf??

  • geschlossen
  • Frage

  • geef07
  • 2268 Aufrufe 5 Antworten

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Ab wie viel Meter tritt Signalverlust auf??

    Hallo Leute,

    ich habe vor eine ca 30-40m lange Strecke mit Cat7 zu verlegen. Ich leg sehr wahrschinlich ne Gigabit Leitung hoch. Ich habe es vorher mit einer vorhandenen 20DA Leitung probiert (0,8mm²) da habe ich aber min 2 LSA und 3-4 Wago klemmen dazwischen und bekomm kein Signal. Dieser Versuch war aber nur 4 adrig. Ich denke die Dämpfung der Klemmen ist zu hoch.

    Was meint Ihr?


    Herzlichen Dank im Voraus.

    MFG

    geef07
  • Die Dämpfung ist zu hoch-so oder so. Bei fehlenden Schirm wird auch der Crosstalk so hoch sein, dass Deine LAN Verbindung angezeigt wird, aber nur einen geringen Datendurchsatz zeigt (oder gar keinen). Bis 100m sollte mit einem vernüftigen Cat5 Kabel und den richtigen Steckern alles i.O. sein und für Otto-Normal-Verbraucher ist das auch ausreichend.
    Wenn Du mit Cat6 auf Gigabit gehst, ist das Kabel nicht mehr so ausschlaggebend. Die Dämpfung und der Crosstalk beginnt dann bei den Steckern.

    Gruß

    Tobine :read:
  • bei 1m cat5e komme ich bei Gbit-LAN nicht über 300Mbit raus. (bei cat6 warens immerhin 650Mbit/s) Dh. wenn er schon GBit-Switches gekauft hat, sollte er auch den geringen Aufpreis fürs Cat6 hinlegen, weil zwischen 220Mbit (mehr wird auf 30m nicht übrig bleiben) und 600Mbit/s (geschätzt) ist dann doch ein kleiner Unterschied... (der den Preis vlt. wert ist)

    Mfg
  • Hi,

    würde mich interessieren, wie Du die Datenraten misst. Die anzuziehenden Standards für Cat5 bzw Cat6 (EN50173-1, IS 11801, bzw. der EIA/TIA 568B2.1) geben vor, dass bei 100m die Kabel und Steckverbinder so ausgeführt werden müssen, das KEIN Datenverlust stattfindet.
    In der Praxis sind natürlich Daten laut dem OSI-Modell geschichtet und haben entsprechend Overhead, der die reine Datenübertragung mindert, aber ich denke nicht in dem Maße wie TECHFREAK es beschreibt.

    Quellen: OSI-Modell - Wikipedia ; Twisted-Pair-Kabel - Wikipedia

    Gruß

    Tobine :read:
  • Mit dem Taskmanager und durch Testübertragungen (zB 128MB übertragen und schaun wie lange es dauert). Ich habe 1 Server per 5m Cat6 am Gigabit-Switch und zwei Rechner mit jeweils 3m cat5e am GigabitSwitch. Die Daten am Server waren auf einem RAID0 und unfragmentiert gespeichert. Ein Rechner hat die Übertragung gestartet und hatte etwa 250Mbit/s (peak 280MBit/s), als ich beim anderen die Übetragung startete hatte dieser ebenfalls etwa 250Mbit/s (peak 280Mbit/s), am Server waren es dann 500Mbit/s, also wurde die Bandbreite eindeutig durch das cat5e-Kabel limitiert.
    PS: Normen aufzählen kann ich auch... und zu Datenverlust kommt es nicht. Dafür gibt es Checksummen in den zu übertragenden Paketen. Das hat rein garnichts mit 100Mbit/1000Mbit oder gar dem Kabel zu tun.

    PS: mit dem billigsten Kabel (UTP), dass ich gefunden habe, waren bei 2m Kabellänge ebenfalls nur 220Mbit/s drin. Am 100Mbit/s Port hat aber auch dieses Kabel die vollen 100Mbit/s hergegeben...