Home

Übertragungszeit

Übertragungszeit bezeichnet in der Netzanalyse die Zeit, die benötigt wird, um eine gegebene Datenmenge über ein Medium zu übertragen, bis alle Bits am Empfang anliegen. Sie unterscheidet sich von der Latenz, die zusätzlich Verzögerungen durch Propagation, Verarbeitung und Warteschlangen umfasst.

Für einfache Modelle gilt t = S / R. S ist die Datenmenge in Bits, R die Übertragungsrate

In der Praxis ist die Übertragungszeit oft Teil der Gesamtlatenz, die zusätzlich Propagation, Verarbeitung, Routing und

Beispiel: Eine 1- MB-Datei über eine 100-Mbit/s-Verbindung. S = 8 Mbit, t_tr ≈ 8 / 100 = 0,08 s. Die

Anwendung: Die Übertragungszeit ist entscheidend bei Bandbreitenplanung, Puffermanagement, Flusskontrolle und Qualitätsdiensten, insbesondere in Echtzeitanwendungen oder bei

des
Kanals
in
Bit
pro
Sekunde.
Liegt
S
in
Byte
vor,
ergibt
sich
t
=
(S
*
8)
/
R.
Die
Übertragungszeit
wächst
mit
der
Datenmenge
und
sinkt
mit
zunehmender
Bandbreite.
In
der
Praxis
wird
oft
zwischen
der
reinen
Übertragungszeit
und
zusätzlichen
Verzögerungen
durch
Protokolle,
Routerverarbeitung
oder
Warteschlangen
unterschieden.
Warteschlangen
berücksichtigt.
Die
End-to-End-Latenz
beschreibt
die
gesamte
Zeit
vom
Sender
bis
zum
Empfänger.
Propagationsverzögerung
über
eine
10-km-Strecke
liegt
typischerweise
bei
etwa
50
μs,
sodass
die
Gesamtzeit
knapp
über
0,08
s
liegt.
großen
Dateien.