计算机网络作业,求大佬帮忙
传输层作业1、考虑一个RTT=20ms的TCP流。假设它已经超过闽值,在时间t=100ms与t=120ms间传送10个数据段(没有超时)。流在t=140ms和t=160m...
传输层作业
1、考虑一个RTT=20ms的TCP流。假设它已经超过闽值,在时间t=100ms与 t= 120ms间传送10个数据段(没有超时) 。流在t = 140ms和t=160ms之间传输的数据段预期有多少(假设在此阶段没有数据段丢失)?
2、如果上题中,传送完10个数据段时出现超时,并采用慢开始算法,同样求t=140ms和60ms之间有多少个预期报文段 (注意轮次慢开始算法) 展开
1、考虑一个RTT=20ms的TCP流。假设它已经超过闽值,在时间t=100ms与 t= 120ms间传送10个数据段(没有超时) 。流在t = 140ms和t=160ms之间传输的数据段预期有多少(假设在此阶段没有数据段丢失)?
2、如果上题中,传送完10个数据段时出现超时,并采用慢开始算法,同样求t=140ms和60ms之间有多少个预期报文段 (注意轮次慢开始算法) 展开
2个回答
展开全部
1. 在时间t=100ms和t=120ms之间传送了10个数据段,因此平均每个数据段的传输时间为(120-100)/10=2ms。在t=140ms和t=160ms之间,共有(160-140)/2=10个时间片段,因此预期有10个数据段被传输。
2. 如果在传送完10个数据段时出现超时,并采用慢开始算法,那么在超时发生时,拥塞窗口大小为10个数据段。接下来,每经过一个RTT,拥塞窗口大小就会翻倍,因此在t=120ms时,拥塞窗口大小为20个数据段,在t=140ms时,拥塞窗口大小为40个数据段。因此,在t=140ms和t=160ms之间,共有(160-140)/40=0.5个轮次,预期有0.5*40=20个数据段被传输。
2. 如果在传送完10个数据段时出现超时,并采用慢开始算法,那么在超时发生时,拥塞窗口大小为10个数据段。接下来,每经过一个RTT,拥塞窗口大小就会翻倍,因此在t=120ms时,拥塞窗口大小为20个数据段,在t=140ms时,拥塞窗口大小为40个数据段。因此,在t=140ms和t=160ms之间,共有(160-140)/40=0.5个轮次,预期有0.5*40=20个数据段被传输。
蓝鲸智能科技
2024-11-15 广告
2024-11-15 广告
您好,我公司自主研发的“机动车驾驶人理论考试管理系统”,具有进/出考场考生身份确认应用场景,能够实现认证比对、约考信息查询和考试状态查询的功能;具有理论考试应用场景,具有考生签到和随机分配考台等功能,我司理论考试系统全面适配信创软硬件,并持...
点击进入详情页
本回答由蓝鲸智能科技提供
展开全部
1、在时间t=100ms到t=120ms之间传送了10个数据段,并且没有超时。根据给定的RTT=20ms,可以计算出在这个时间段内每个数据段的传输时间为20ms。
在时间t=140ms和t=160ms之间,共有20ms的时间。由于每个数据段的传输时间为20ms,所以预计可以传输1个数据段。
2、如果在传送完10个数据段时出现超时,并且采用慢开始算法,我们需要根据慢开始算法的规则来计算。
假设在超时时,拥塞窗口大小为W,根据慢开始算法,拥塞窗口大小将被设置为1(因为超时表示网络出现拥塞)。
在时间t=140ms和t=160ms之间,共有20ms的时间。根据慢开始算法,在每个轮次中,拥塞窗口的大小将翻倍。因此,在这个时间段内,预计的报文段数量将取决于拥塞窗口的大小。
具体计算需要知道在超时发生时拥塞窗口的大小(即W),才能确定预期的报文段数量。如果提供了拥塞窗口的大小,我可以帮你进一步计算。
在时间t=140ms和t=160ms之间,共有20ms的时间。由于每个数据段的传输时间为20ms,所以预计可以传输1个数据段。
2、如果在传送完10个数据段时出现超时,并且采用慢开始算法,我们需要根据慢开始算法的规则来计算。
假设在超时时,拥塞窗口大小为W,根据慢开始算法,拥塞窗口大小将被设置为1(因为超时表示网络出现拥塞)。
在时间t=140ms和t=160ms之间,共有20ms的时间。根据慢开始算法,在每个轮次中,拥塞窗口的大小将翻倍。因此,在这个时间段内,预计的报文段数量将取决于拥塞窗口的大小。
具体计算需要知道在超时发生时拥塞窗口的大小(即W),才能确定预期的报文段数量。如果提供了拥塞窗口的大小,我可以帮你进一步计算。
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询