首页> 中文学位 >基于HTTP Streaming的课程直播系统中流传输子系统的优化
【6h】

基于HTTP Streaming的课程直播系统中流传输子系统的优化

代理获取

目录

封面

声明

中文摘要

英文摘要

目录

图 录

表 录

第一章 绪论

1.1 HTTP Streaming技术的发展现状与应用前景

1.2论文的研究内容与意义

1.3论文的组成结构

第二章 基于HTTP Streaming的课程直播系统

2.1直播系统总体架构

2.2流传输协议

2.3多客户模拟器

2.4本章小结

第三章 HTTP Streaming直播系统中缓存行为的优化

3.1 HTTP Streaming直播系统中缓存的特点与缺陷

3.2 Nginx相关原理

3.3缓存行为优化方案的设计与实现

3.4对现有CDN系统的考察

3.5本章小结

第四章 HTTP Streaming直播系统中端到端延时的优化

4.1研究背景

4.2 HTTP Streaming直播系统端到端延时的引入环节

4.3客户端包调度机制的优化

4.4客户端去抖动缓冲的优化

4.5分片文件的长度的优化

4.6低端到端延时的HTTP Streaming直播系统原型

第五章 总结与展望

5.1本文的主要工作

5.2进一步的工作设想

参考文献

致谢

攻读硕士学位期间已发表或录用的论文

展开▼

摘要

HTTP Streaming技术的主要思想是将视频流分割成多个小的分片文件并且存储于 WEB服务器,客户端通过 HTTP协议下载需要的分片文件进行播放。由于HTTP Streaming具有很多优点,例如,该技术基于广泛使用的HTTP协议,可靠且易于部署;对于防火墙或NAT的穿透性好;可以利用标准的HTTP服务器以及HTTP缓存等,该技术已经成为近年来流媒体传输领域的热点。本文工作围绕将该技术实际应用在大规模课程直播系统中时暴露出的若干不足展开。
  HTTP缓存服务器是提高HTTP Streaming系统客户并发量的关键环节。但当前主流HTTP缓存服务器,如Nginx、Squid、Varnish等,在缓存资源更新期间的行为都存在不足,在我们实际部署的基于HTTP Streaming课程直播系统中,缓存服务器会周期性地把大量客户端请求转发至源服务器,从而制约了HTTP Streaming系统的可伸缩性。本文针对性的提出一种优化的HTTP缓存服务器在缓存更新期间的行为,即缓存服务器仅向源服务器转发一路客户端请求,缓存更新期间,拒绝其它关于该资源的请求。优化策略在使用最为广泛的Nginx服务器的基础上进行了实现。实验证明,优化后系统的伸缩性得到了显著提高。另外,本文还对主流CDN服务的缓存行为进行了检测。
  典型的HTTP Streaming直播系统的端到端延时在10s-15s之间,这对于需要支持一定交互性的课程直播应用来说延时过大。通过对引入端到端延时的各个环节(客户端的包调度机制、客户端去抖动缓冲、分片文件长度)的优化,本文提出一套低端到端延时的HTTP Streaming的直播原型,成功将直播系统的端到端延时降低至5s以下。

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号