网络传输时间

上一篇 / 下一篇  2011-03-10 14:12:51 / 个人分类:Linux

长1Km。10Mbps的基带总线LAN,信号传播速度为200M/us,计算一个1000比特的帧从发送到接收结束的最大时间是多少

发送和接收需要时间,速度是10Mbps;传播也需要时间,速度200M/us;不过第一个比特到达接收端时,1000比特还没发送完,所以不是 (帧发送时间+传播时间+帧接收时间),因为中间有重叠。

开始之后1000/10Mbps = 100us,帧的最后一个比特刚好完成发送,再过1km/(200m/us)=5us最后一个比特传播到接收端,接收端再用1/10Mbps = 0.1us收完这最后一个比特。就接收结束,整个费时100us+5us+0.1us = 105.1us.

ps.这是在没考虑冲突的情况下得最大时间。

我觉得1000b在发送前要处理时间和接受完的时间应该相等(不考试其他因素),所以100应该*2吧????
1000b/(10*10^6)b/s*10^6*2+5US=205us????

2个相等没错,但不是一个做完,另一个才开始做。
当1帧在发送端还没发完的时候,就已经有部分传播到接收端开始接收了。有重叠。

这也是设计二层协议的时候要考虑的地方,有一个最小长度限制,一桢没完全发完就有部分到达,便于检测到冲突做处理:)

- 千里孤行


TAG:

 

评分:0

我来说两句

Open Toolbar