当前位置:文档之家› 分层存储与缓存加速

分层存储与缓存加速

分层存储与缓存加速
分层存储与缓存加速

1 分层存储

分层存储其实已经不是一个新鲜的概念,而是已经在计算机存储领域应用多年。

其与计算机的发明与发展相伴相生。在冯-诺依曼提出计算机的模型“存储程序”

时就已经包含了分层存储的概念。“存储程序”原理,是将根据特定问题编写的

程序存放在计算机存储器中,然后按存储器中的存储程序的首地址执行程序的第

一条指令,以后就按照该程序的规定顺序执行其他指令,直至程序结束执行。在

这里的外存储器与内存储器,就是一个分层存储的最初模型。

分层存储(Tiered Storage),也称为层级存储管理(Hierarchical Storage

Management),广义上讲,就是将数据存储在不同层级的介质中,并在不同的介

质之间进行自动或者手动的数据迁移,复制等操作。同时,分层存储也是信息生

命周期管理的一个具体应用和实现。

而实际上,将相同成本及效率的存储介质放在不同层级之间进行数据迁移复制在

实用性及成本上并不是有效的数据存储方式。因此,在不同的层级之间使用有差

别的存储介质,以期在相同成本下,既满足性能的需要又满足容量的需要。这种

存储介质上的差别主要是在存取速度上及容量上。存取速度快的介质通常都是存

储单位成本(每单位存储容量成本,如1元/GB)高,而且容量相对来讲比较低。

相应的,存取速度慢的介质通常是为了满足容量与成本方面的要求,既在相同的

成本下可以得到更大的容量。所以,从这方面来说,分层存储其实是一种在高速

小容量层级的介质层与低速大容量层级的介质层之间进行一种自动或者手动数

据迁移、复制、管理等操作的一种存储技术及方案。

一般来说,分层存储中,我们将存取速度最快的那一层的介质层称为第1层(Tier

1,依次为第2层,第3层等等。

理论上说,层级的划分可以有很多层,但是在实践中,最多的层级在4层左右。

过多的层级会增加数据及介质管理的难道及可用性。因此在层级的设置上有一个

拐点,即层级达到一个特定的层数时,会导致成本的上升,而使得可用性、可靠

性都会相应下降。通常层级的设定在2-4层之间。如下图所示:

而另外一种分类,则是非易失性分层存储,或者叫外部分层存储。此类型的存储介质一般包括固态硬盘(SSD)、机械式硬盘、磁带库等等。

而此类的存储介质分层正是我们所要关注的,如没有特殊的说明情况下,在此文档中所说的分层存储都是指外部分层存储。

一般来说,作为第0层的存储介质通常为RAM 磁盘(随机访问存储磁盘,其速度与内存同速,但是价格昂贵,使用环境基本上是特殊计算环境);第1层现在一般是SSD,第2层现在一般是SAS 15K硬盘或者相应的10K硬盘。第3层可能有其他NL-SAS/SATA类型72000转的硬盘。

存储分层的核心思想就是,将各种硬盘组成一个大的虚拟池,举例:SSD一个RAID,SAS15K一个RAID,SATA 7.2K一个RAID 然后在将三个RAID组成一个虚拟池,虚拟池提供卷服务,通过映射,服务器可以访问到存储的空间,

客户可以对不同的业务(服务器)进行了优先级的设定以及生命周期的设定,也可以有系统自动识别。

针对不同的优先级,比如OLTP(如:ERP)=1,Office=2,视频文件=2,归档文件=0(0为不允许流动)

这样,在不同业务模型下,系统会根据业务优先级、业务访问频度不同的数据

实现数据的硬件层的流动。

最终的结果是,访问频繁的,优先级高的,数据尽可能的存储在SSD成,频繁

访问但是优先级不高的office,视频文件存储在SAS 15K层或SSD层,而归档

文档就基本保存在SATA 7.2K层。

设计很理想,实现总是受限客户的业务模型,如果客户业务层次如此分明的话,

那么无需自动分层存储,手动划分RAID,直接映射就好了,这样数据不流动,

反而效率更好。

如果是一个无优先级、生命周期设定的环境,那么最终的结果是,热点数据占

据SSD,这些热点数据可能是视频,但是可能会冲击运行着的OLTP(如:ERP),

导致最核心的业务变得缓慢。

如果是多层存储的话,那么存在大量数据从SATA 迁移到再从SAS迁移到SSD,

并且同时SSD将数据迁移到SAS,再从SAS迁移到SATA,周而复反,SSD很快

就损坏,并且整个存储系统不停的进行数据迁移运算,SATA/SAS等机械硬盘故

障率也会非常的高。

在现实世界中,最早做全数据流动是美国Compllent,当初牛皮吹破天,被啥存

储技术都没有的DELL收购,最后的结果是DELL收购后悔,买存储的的客户

更后悔。

自动分层存储已经名存实亡!

2 缓存加速

缓存技术的原理就比较简单,一般存储本身的cache价格非常贵,并且容量也小,

那么我们可以通过现在越来越便宜的SSD来扩大缓存,把SSD作为2级缓存。

自动分层数据是流动的,而缓存加速,只是将热点数据load到ssd中,SSD的

IOPS最高能到70万,全随机下也有2万,而SAS 硬盘最多也就200。这中间

的差值是100倍。

使用全闪存阵列价格贵,并且并不是所有业务都需要运行在SSD上,通过2/4

块,400G/800G 高寿命的SSD来做二级缓存,这样IOPS也能轻松达到万级别,

这样您就实现了容量和性能的均衡。

分层存储与缓存加速

1 分层存储 分层存储其实已经不是一个新鲜的概念,而是已经在计算机存储领域应用多年。 其与计算机的发明与发展相伴相生。在冯-诺依曼提出计算机的模型“存储程序” 时就已经包含了分层存储的概念。“存储程序”原理,是将根据特定问题编写的 程序存放在计算机存储器中,然后按存储器中的存储程序的首地址执行程序的第 一条指令,以后就按照该程序的规定顺序执行其他指令,直至程序结束执行。在 这里的外存储器与内存储器,就是一个分层存储的最初模型。 分层存储(Tiered Storage),也称为层级存储管理(Hierarchical Storage Management),广义上讲,就是将数据存储在不同层级的介质中,并在不同的介 质之间进行自动或者手动的数据迁移,复制等操作。同时,分层存储也是信息生 命周期管理的一个具体应用和实现。 而实际上,将相同成本及效率的存储介质放在不同层级之间进行数据迁移复制在 实用性及成本上并不是有效的数据存储方式。因此,在不同的层级之间使用有差 别的存储介质,以期在相同成本下,既满足性能的需要又满足容量的需要。这种 存储介质上的差别主要是在存取速度上及容量上。存取速度快的介质通常都是存 储单位成本(每单位存储容量成本,如1元/GB)高,而且容量相对来讲比较低。 相应的,存取速度慢的介质通常是为了满足容量与成本方面的要求,既在相同的 成本下可以得到更大的容量。所以,从这方面来说,分层存储其实是一种在高速 小容量层级的介质层与低速大容量层级的介质层之间进行一种自动或者手动数 据迁移、复制、管理等操作的一种存储技术及方案。 一般来说,分层存储中,我们将存取速度最快的那一层的介质层称为第1层(Tier 1,依次为第2层,第3层等等。 理论上说,层级的划分可以有很多层,但是在实践中,最多的层级在4层左右。 过多的层级会增加数据及介质管理的难道及可用性。因此在层级的设置上有一个 拐点,即层级达到一个特定的层数时,会导致成本的上升,而使得可用性、可靠 性都会相应下降。通常层级的设定在2-4层之间。如下图所示:

秒开缓存系统安装教程

缓存系统安装及调试教程 秒开缓存系统是新面市缓存加速软件,可广泛用于网吧/小区/学校等用户,可对网页图片/在线视频/网页下载等进行缓存加速。缓存输出带宽在50M以内是免费的,注册另送10M,一般小型网吧应该够用了,如果是大网吧或小区,估计只有付银子了。 即使是菜鸟,按我说的步骤,也可以搞定。 第一步:准备好安装文件 官方网站上有安装文件下载,推荐按这个方法安装:先下载ISO文件,然后写入U盘安装。U盘安装盘制作工具我选用unetbootin,官网上也有下载。 第二步:制作U盘启动盘 (1)点击unetbootin-windows-603.exe文件(按前面交代下载下来的) (2)选择ISO文件(按前面交代下载下来的,图中红框部分),按“确定” 接下来是制作过程

提示制作完成

第三步:U盘安装 找一台合适机器,硬件最低要求是: 建议4G以上内存,IT以上硬盘,千兆网卡一块就可以了(注意安装时会格式化硬盘,请备份需要保存数据)。 (1)在BIOS里设置U盘启动 (2)插入U盘,重启电脑进入安装过程,安装过程基本上是傻瓜操作,按回车就行。 这是启动界面 然后是选择安装界面 下图是提示安装在那块硬盘上(如果你机器有多块硬盘的话)

(3)修改缓存服务器IP地址,以便通过WEB登录(如果按回车是系统默认IP) 安装完成,重启就OK了

第四步:接入网络进行设置 秒开缓存支持三种部署方式:旁路(一根网线连接主交换机即可);镜像(一根网络连接主交换机的镜像端口);桥接(从路由器连接到缓存服务器,从缓存服务器连接到主交换机),最简单和有效方式是旁路,所以我就按旁路方式部署调试。 (1)旁路接入 如图接入缓存系统,并设置好调试电脑的IP和DNS

CDN缓存加速系统wdcdn3.2版本发布

Wdcdn是一套基于Linux+apache+squid架构开发的CDN缓存加速系统及管理系统 可帮助大中小站长或大中小企业低成本,快速简单,构建自己的CDN网络及服务器群,提供更好的在线服务,更快速的网络和网站,我们也致力打造这样一个完善完美的CDN缓存加速系统,CDN部署综合解决方案 功能列表 1 分主控与节点,主控可管理节点所有系统,包括站点管理,系统资源,监控等 2 分路线可针对不同的用户或需求设置分组线路以满足用户,如网通,港台,海外等 3 节点分组,可针对不同配置,应用进行分组达到更方便管理节点服务器,支持父子节点/中转节点 4 产品化购买/开通CDN,方便用户自助注册开通CDN服务,增加加速站点 5 站点数据系统后台定期同步,并详细记录同步状态结果,以便查看以便查看及再同步 6 定期检测站点到期时间,自动暂停CDN服务,到期通知等 7 可在线设置缓存加速的文件类型,大小,及硬盘,内存的大小等 8 可针对站点或域名设置文件的缓存时间 9 可监控节点系统资源,负载,内存使用,硬盘空间使用等 10 可监控节点CDN加速服务的状态,并发短信或邮件通知 11 可监控源站点的在线状态并短信或邮件通知 12 结合mrtg统计节点带宽,生成日,周,月的带宽报表 13 可按节点统计或查询站点/用户的带宽/流量,可按当天,昨天,本周,本月,上月查看 14 可按节点统计分别下载网站日志 15 数据备份,每天定期备份数据库并可上传至远程FTP服务器,以保证数据库的安全 16 系统模板化,便于用户定制或设计自己的页面界面 17 详细的操作日志及系统日志,便于查看系统的状态 18 支持支付宝自助充值和开通CDN服务 20130403更新 1 增加以用户ID为单位的带宽/流量统计 2 增加代理平台功能(未对外开放) 3 增加对源站域名指定/替换功能 4 增加过期统计数据的清除功能 5 增加节点检测时同步端口设置 6 优化缓存规则设置,支持目录的设置 7 优化支付宝官方接口及增加增加第三方的支付宝支付接口 8 优化部分内核功能 9 修复文件类型/流量统计时对JPG的统计错误 10 修复在站点到期停止后,续费时自动开通站点 11 修复启用中转节点为站点启用时的同步的源IP/父IP的问题 12 调整缓存硬盘空间设置 13 调整日志统计临时文件的删除时间 升级方法 直接后台可升级(不影响也不会中断服务),以及参考用户区的升级说明

高速缓冲存储器.

3.7 高速缓冲存储器 高速缓冲存储器的功能是提高CPU数据输入/输出的速率,突破所谓的存储器瓶颈问题,即CPU与存储系统间数据传送带宽限制。高速缓冲存储器能以极高的速率进行数据的访问,但因其价格高昂,所以只在CPU和主存之间添加少量的Cache,利用程序的局部性原理来进行工作。 3.7.1 程序访问的局部性原理 程序访问的局部性有两个方面的含义:时间局部性和空间局部性。时间局部性是指最近的访问项(指令/数据)很可能在不久的将来再次被访问(往往会引起对最近使用区域的集中访问),而空间局部性是指一个进程访问的各项地址彼此很近。 换句话说,就是最近的、未来要用的指令和数据大多局限于正在用的指令和数据,或是存放在与这些指令和数据位置上邻近的单元中。这样,就可以把目前常用或将要用到的信息预先放在存取速度最快的存储器中,从而使CPU的访问速度大大提高。 依据局部性原理,把主存储器中访问概率高的内容存放在Cache中,当CPU需要读取数据时,首先在Cache中查找是否有所需内容,如果有则直接从Cache中读取;若没有再从主存中读取该数据,然后同时送往Cache和CPU。如果CPU需要访问的内容大多都能在Cache中找到(称为命中),则可以大大提高系统性能。 3.7.2 Cache的基本工作原理

如图3-13所示给出了Cache的基本结构。Cache和主存都被分成若干个大小相等的块,每块由若干字节组成。由于Cache的容量远小于主存的容量,所以Cache的块数要远少于主存的块数,它保存的信息只是主存中最活跃的若干块的副本。用主存地址的块号字段访问Cache标记,并将取出的标记和主存地址的标记字段相比较,若相等,说明访问Cache有效,称Cache命中,若不相等,说明访问Cache无效,称Cache不命中或失效,而此时需要从主存中将该块取出至Cache中。 当CPU发出读请求时,如果Cache命中,就直接对Cache 进行读操作,与主存无关;如果Cache不命中,则仍需访问主存,并把该块信息一次从主存调入Cache内。若此时Cache已满,则须根据某种替换算法,用这个块替换掉Cache中原来的某块信息。 当CPU发出写请求时,如果Cache命中,有可能会遇到Cache与主存中的内容不一致的问题,处理的方法主要有两种,一是同时写入Cache和主存,称为写直达法;二是将信息暂时只写入Cache,并用标志将该块加以注明,直到该块从Cache中替换出来时才一次写入主存,称为写回法。如果不命中,就直接把信息写入主存,而与Cache无关。

ExpressCache SSD缓存加速

安装ExpressCache前需要删除SSD硬盘的分区,在磁盘管理里删除SSD分区后安装ExpressCache。这个软件装了之后不会有显示,右下角也没有,直接后台发挥作用(可通过命令提示符下ECCmd -info命令查看运行状态),所以大家可能都没有装上。 装了之后会重启,第一次会花一些时间,进去之后界面没有任何变化,但其实已经在后台运行了,在进程和启动项里可以看到,装好之后,对于用的程序或者文件,第一次打开速度没有变化,但你再次打开时候会发现速度提高很多,即ExpressCache已经发挥了作用,至此,ExpressCache已安装完成。 ECCmd -info命令查看运行状态: 开启缓存后我的开机速度: 这个开机速度是我自己写的程序,其实是WINDOWS启动的时间,不带BIOS的自检时间等。

大致代码如下: 这样ExpressCache就会在后台默默的运行,为电脑加速做贡献~你会感觉电脑越来越快了:) 后来我了解到 ExpressCache 源自Diskeeper(一个专业做磁盘碎片整理软件的公司)。除了ECCmd -info查看状态外还提供了一些有用的指令: ECCmd -EXCLUDE E--E盘不做缓存,例如E盘是一些电影等文件我们就可以将它从SSD缓存中排出 ECCMD -FORMAT --初始化缓存,也就是清空SSD里的缓存 ECCMD -CLEAREXCLUSIONS ---取消缓存排除 如果不想整个的SSD都作为缓存盘可将SSD分区,前面的一个盘做正常盘使用,后面的分区不要格式化,不要建立盘符,安装ExpressCache会自动识别后面的那个分区作为缓存盘使用。

第九章-Plone站点缓存加速

Plone站点缓存加速 如果网站的访问量非常大,在直接使用Plone提供服务生成动态页面的情况下,网站页面打开会非常慢,用户体验不佳。 为了解决这个问题,从Plone2.5开始,Plone自带了一个叫做CacheFu的插件产品。使用CacheFu,可通过内存、缓存代理服务器、浏览器多种缓存的组合,实现完成Plone 站点的加速。一旦配置完成,你的站点可提速近10倍;如果配合Squid,可提速近50倍。对于真正的大负载的Plone网站部署,都是需要采用CacheFu来进行网站加速的。 本章介绍如何利用CacheFu和Squid加速您的站点。本章学习重点: ?HTTP缓存协议和缓存原理 ?CacheFu的缓存设置 ?squid的设置和缓存清除 9.1 缓存加速原理 9.1.1 基本原理 所谓缓存,是指将计算后的结果保存到内存或者硬盘,下次访问的时候,直接将保存的结果输出,从而避免重复计算导致服务器过载,同时也加快响应速度。 如果将需要网络传输的数据缓存,还可以起到减少网络流量,节省带宽耗用的作用。 同时,配置缓存的时候,需要考虑注意回避如下问题。这也是后面配置缓存时需要设法规避的。 ?缓存可能占用大量的内存、硬盘空间。我们需要权衡缓存生效的时间、保存的数量,避免缓存内容过大。 ?缓存可能带来过时的数据。一旦更新数据,需要刷新缓存。 Zope在数据存取的各个环节,均可设置缓存。 9.1.2 回顾: ZODB的缓存管理

在ZODB一章中,我们介绍了ZEO缓存和ZODB的缓存,回顾如下: ?ZEO缓存:在zope.conf中的zeoclient中设置,表示对ZEO数据库的缓存。缓存保存在本地硬盘中,避免每次从远程ZEO服务器上读取对象。 ?ZODB的缓存:在zope.conf的zodb_db中设置,表示内存中缓存的ZODB对象数量。缓存保存在内存中,可避免每次都从硬盘中读取。在ZMI中的Control_Panels 中,可对ZODB缓存进行清除和分析。 9.1.3 Zope的缓存管理器 zope提供了一个叫做Zope缓存管理器(CacheManager)可插拔的缓存框架。你可编写一个缓存管理器,然后将支持缓存功能的Zope对象和这个缓存管理器绑定,就可以对这个对象进行缓存。 文件、图片、ZPT、DTML等对象都支持缓存管理。在ZMI中,有个 Cache 标签页用于设置缓存管理器。比如网站的logo图片 portal_skins/custom/logo.jpg 缓存设置界面如图9.1所示。 【图9.1】对象的缓存管理器绑定 在上图中,下拉列表中的HTTPCache、RAMCache等,都是网站的一些缓存管理器,可选择一个,将对象的缓存管理委托给该管理器管理。 在Plone网站根的ZMI界面中,我们可以找到这些缓存管理器,典型如图9.2所示。

浅谈高速缓冲存储器

浅谈高速缓冲存储器 缓冲存储器用在两个工作速度不同的硬件之间,在交换信息过程中起到缓冲作用。它能提高计算机系统的工作效益。下面主要谈谈两种高速缓冲存储器、它的作用及发展趋势。一、高速缓冲存储器Cache 我们通常都认为计算机的速度是由CPU决定的,但是还要有其它的硬件或软件来充分发挥它的速度。我们知道要使用的软件都要通过主存储器(内存)才能运行,而主存储器的运行速度和CPU之间有一个数量级的差距,这就限制了CPU速度潜力的发挥,为了弥补这个差距,人们在主存储器和CPU之间设置一种高速缓冲存储器Cache。高速缓冲存储器Cache的运行速度高于主存储器数倍,与CPU速度差不多,容量较小。高速缓冲存储器Cache中的数据是主存储器的副本,在程序运行中,当需要取指令或数据时,CPU先检查高速缓冲存储器Cache中是否有内容,若有就从Cache中取出,否则从主存储器取出,这样就充分发挥了CPU的潜力。在486的机种中经常配备高速缓冲存储器Cache,与主存储器相比,它的工作性质是不同的。简单地说,Cache是针对CPU作输入输出动作的,而主存储器是针对总线作输入输出动作的,因此Cache比主存储器的速度快。现在486机型一般配置有256K的Cache,Cache并不是越大越好,一般有256K就足够了。另外,如果机器本身没有配备硬件Cache,可以使用某些工具软件(如PC TOOLS,NORTON等)控制的Cache功能,也能达到同样的效果。二、磁盘高速缓冲存储器SMARTDRV SMARTDRV.EXE是DOS 6.2中的外部设备驱动程序。用此程序可启动或设置磁盘高速缓冲存储器。与

秒开缓存系统使用说明书最新版

秒开缓存系统V4.0使用说明书 尊敬用户: 感谢您使用秒开缓存系统!秒开缓存系统V4.0版采用旁路镜像部署,具有对原有网络无干扰、能根据带宽状况智能回源、支持按文件扩展名进行全网缓存、支持多机集群运行和网络存储等特点,是一款适合大中型宽带运营商、高校、大型企业使用缓存加速系统。本使用说明书可以帮助您快速调试和使用秒开缓存系统。 快速调试指南 在系统调试之前,系统已安装好。有关系统安装见《秒开软件安装说明书》 在开始调试之前,先了解一下秒开缓存系统能正常工作的条件: 第一:缓存能采集到用户上网请求,这是通过镜像口的数据采集功能来实现的; 第二:客户机能够收到缓存服务器发出重定向数据包和命中数据包,客户机与缓存服务器之间通讯无阻碍; 第三:缓存能上网,能够从远程服务器回源数据。 下面将用“step by step"方式介绍缓存系统V4.0的调试方法。 Step 1: 确定部署方案,调试好镜像交换机 官方推荐2种部署模式,拓扑图如下: 注:推荐部署方式可以适应各种网络环境,无需根据不同网络环境对缓存做不同调整。 推荐部署模式1:(注意交换机镜像设置)

(图1) 推荐部署模式2:(注意交换机镜像设置) (图2) 如果不方便使用前2种推荐方式部署,也可以使用下面部署方式: (图3) 注:在设置交换机镜像口时,最好是镜像上行流量,如果交换机不支持,镜像双向流量也行。Step 2: 控制台登录修改IP

接上显示器和键盘,开机启动,系统启动完毕后,主板蜂鸣器会发出三声短暂的提示音:“滴---滴滴”。 在控制台可以修改命中口的IP和网关(系统默认命中口IP是192.168.1.254,网关是192.168.1.1),网关是路由LAN口IP,命中口IP是和网关同一网段一个空闲固定IP。注意:按推荐部署模式1接的,网关为路由LAN口扩展IP Step 3: 登录WEB控制页,绑定网口 按部署方案先接好命中口,把客户机IP设为与缓存命中口IP同一网段,打开客户机浏览器,输入http://命中口IP:8014,进入登录页面,如图所示: (图4) 登录后,先先绑定命中口网卡(建议按系统默认的),然后再插上镜像口网线,绑定镜像网口,然后根据情况是否需要绑定上网口(独立上网时需要绑定上网口)。 操作:进入“系统设置”-》“网卡绑定”,点击“添加网卡绑定” 必须绑定端口是命中口、镜像口,其他口根据需要确定是否需要绑定。 说明: 1. 命中口可以做多网口汇集,需要交换机支持,网络规模不大,不必做多口汇集。 2. 回传口设置:在推荐方案1或2时,回传口建议使用镜像口,部署方案3建议使用命中口(回传口不设置时会默认使用命中口回传,回传的意思是缓存向客户机发302重定向包) 3. 在缓存独立上网时,必须绑定上网口,绑定后显示是WAN口。 Step 4: 上网口及DNS设置 一般默认为命中口上网,如果要使用独立外线上网,先需要绑定上网口(step 3),DNS 一般可以保留系统默认的,再加上缓存上网线路的DNS。 操作:进入“系统设置”-》“DNS配置”,点击“增加DNS” Step 5: 集群设置 V4.0版可以多机集群

一种内容网络缓存系统增益比调优方法

2017年第5期信息通信2017 (总第173 期)INFORMATION & COMMUNICATIONS (Sum. No 173)一种内容网络缓存系统增益比调优方法 谭辉*,夏雪玲S叶启*,张松2 (1.中国移动通信集团湖北有限公司,湖北武汉430023;2.武汉亿阳信通科技有限公司,湖北武汉430024) 摘要:拥有自己的产业,不做管道搬运工,从流量经营向内容网络的转变,这是企业转型的趋势。内容网络缓存系统的磁 盘利用率,对内容网络质量具有重要影响。湖北公司针对内容网络缓存系统进行了 一系列的优化,更好的提升了缓存系 统服务能力。文章提出了通过优化提升磁盘利用率的方法,增加缓存系统存储的热点资源数量,从而提升缓存系统服务 吐出流量,减少回源流量,提升缓存系统的增益比。 关键词:内容网络、缓存系统、增益比、磁盘利用率、统一 CDN 中图分类号:TP333 文献标识码:A文章编号:1673-1131(2017)05-0245-02 1概述 随着移动互联网的发展,网页、视频等互联网资源呈指数 型爆炸式増长,移动互联网用户同样也快速増长,用户对于这 些互联网资源的浏览质量和响应速度提出了越来越高的要求,为满足用户对于髙质量互联网资源的需求,中国移动集团公 司大力发展内容网络建设,在全国范围建设内容网络统一 CDN,为全力支持集团公司内容网络建设工作,湖北作为边缘 节点省和溯源中心省,全力完成省内边缘服务层建设、溯源中 心建设、缓存业务到统一C D N的业务迁移和上海视频基地 01T业务CD N融合工作。 评估缓存系舡作性能的关键癒之一就是它的增益比,增益比定义为缓存系统服务吐出给用户的流量/缓存系统回源 流入的流量,其中缓存系统回源流入的流量包括首次缓存某 资源或者资源源站出现更新的情况下缓存系统需要从源站获 取流量,增益比越髙,表明缓存系统服务效率越髙,越能减少 用户出省访问流量,从而提升用户访问质量,在缓存系统服务 的用户量一定的情况下,需要增加缓存系统存储的热点资源,从而提升缓存系统的增益比。 为提升内容网络缓存系统增益比,减少用户出省访问 流量,提升用户访问质量,本文提出了通过优化提升磁盘利 用率的方法,增加缓存系统存储的热点资源数量,从而提升 缓存系统服务吐出流量,减少回源流量,提升缓存系统的增 益比,该方法是基于内容网络通用硬件对磁盘空间进行优 化重组,提升内容数据存储空间,加大实际数据内容的存储 量,从而提升缓存系统服务吐出流量,减少回源流量,提升 缓存系统的增益比,该成果适用于内容网络边缘节点所有 省公司。 2通过提升磁盘利用率实现内容网络缓存系统增益 比调优 2.1现有内容网络缓存系统磁盘利用率问题过对磁盘结构进行分析发现,系统会使用磁盘的80%做为媒 体资源的缓存盘C盘(21T*0.8=16T),其中C盘的85%(14T)按照设计用作大文件存储,15%用作小文件存储。 按照上述设计,大文件设备纯旁路实际存储盘,实际为 14T,前期已使用12T,占比89%,而12T又是整个磁盘空间的 约 60%(21T*60% =12.6T) 目前媒体盘(C盘)已使用了 89.31%,而系统媒体盘使 用率达到90%的时候,会自动清理数据,进行数据老化。所 以,磁盘占用率到了 60%后,就不再增长,但是用来存储序列 化文件和日志文件的D盘和E盘磁盘利用率极低,仅为 0.3%,相当于约有9T左右得磁盘空间浪费严重,无法用来 存储数据。 2.2技术实现方案 根据前期通过对磁盘结构进行分析发现系统会使用磁盘 的80%做为媒体资源的缓存盘C盘(21T*0.8=16T),其中C盘 的85%(14T)按照设计用作大文件存储,15%用作小文件存储,内容网络缓存系统大文件设备磁盘空间中约有9T左右的磁 盘空间没有得到充分利用,本成果提出了通过优化提升磁盘 利用率的方法,增加缓存系统存储的热点资源数量,从而提升 缓存系统服务吐出流量,减少回源流量,提升缓存系统的增益 比,下面分步骤对上述技术方案进行详细说明。 (1)执行命令:d f-h,磁盘总大小为21T。所有的数据盘 分为了 3个虚拟盘,其中c盘是存储资源的,d盘是存储序列 化文件之类,保证重启数据不丢失,e盘存储日志信息,如图 1所示。 t o t a l0 c d/o p t/a L k m i s_f u s e/ /ro k n ifs—f u s e枯11 d r w x r-x----13i c a c h e i c a c h e135A u g2402:23 d r w x r-x--一6i c^c h e i c a c h e80A u g2402:24 d r w x r-x——Z i c a c h e >2:/o p t i c a c h e6A u g2402:22 现有内容网络缓存系统大文件设备磁盘空间为21T,但磁 盘占用率仅为60%,约9T的磁盘空间没有得到充分利用,通 图1磁盘原始分布情况 (2)执行命令:mkmfsinfo_vol_h;可以看到M K讲整个磁 本次工程计划将主干光缆覆盖到主要路口,计划建设中 继48芯光缆105.7公里,光交主干144芯光缆272.5公里,新 建一级光交125台,二级光交350台,投资预计2500万元。4结语 在平安包头项目中GPON技术承载方式得到了很好的应 用,在打造“绿色GDP”和发展“低碳经济”的时代背景下,采用GPON网络加合理规划的光纤城域网方案作为平安城市传输 网,这对平安包头建设者和运营者来说不仅节约了成本,而且 对其他同类项目的建设产生重大的示范效应。 作者筒介:武小龙(1988-),男,毕业于南昌理工学院,计算机专 业,工程师,从事通信行业7年。 245

视频缓存的实现方法

对于许多出口带宽不足的集团宽带用户(如小区宽带运营商、学校、网吧、酒店等),会被推荐使用一种视频缓存网络缓存加速的产品,特别是用户通过网络看流媒体视频较多用户,更需要这个视频缓存产品,那这样视频缓存产品究竟能起什么作用呢? 1.网络缓存的作用 网络缓存加速产品是一种基于“以存储空间换带宽,重复流量再利用”原理而开发产品,缓存系统能够将网络中的热点资源下载并存储在本地,实现热点资源本地化读取。 我们看一个网络在网络缓存系统部署前后效果来理解网络缓存系统的作用:

从图示可知,网络缓存系统有2大作用: 第一:能对网络中大文件如视频,音乐,下载等文件实现本地化读取,实现重复流量本地化再复用,减少外网带宽占用。 第二:因缓存数据是本地化读取,一般情况下比从外网读取快,从而实现上网加速,消除网络高峰期的卡顿的现象,提升用户体验。 2.网络缓存的工作原理 目前,市面上有代理缓存和重定向缓存2种产品,这2种缓存产品工作原理是不同的。 (1)代理缓存

代理缓存简单说通过DNS代理方式,对支持缓存网站进行强制代理,缓存有数据,直接命中发送给客户端,缓存没有数据,代理请求数据,数据先返回缓存服务器,再由缓存服务器发给客户端。 这是一种正向代理模式,从它的工作原理可知,由于是强制代理,缓存命中率较高,支持缓存内容也较多,如图片、视频、音频、下载文件等,但对网络原来干扰也较大,而且如果缓存系统一旦出现问题,会影响客户端正常上网,一般不建议网络规模较大或多ISP上网线路客户采用这种方式。 (2)重定向缓存 重定向缓存是利用缓存服务器再采集到用户上网请求后,发送302重定向包给客户端,欺骗

动态内容如何通过CDN进行加速

本质上来讲CDN接近于一个全网分布的巨型cache,在这个方面来说,其对静态内容的加速非常容易理解。但是,在目前的网路中,又有多少网站恪守静态内容呢?面对动态内容、个性话内容、电子商务的实时交易数据等等完全不同于以往静态内容的要求,CDN应该如何完成呢?本文接下来将会为您简单的解释和介绍下目前的主流CDN服务系统是如何解决这个困难的。 单纯的静态内容由于管理繁琐且表现能力严重不足,所以日益为各式各样的CMS取代。为了顺利的实现对动态内容的交付,典型的web系统在结构上也有了很大的变化,逐步演变为如下图所示的结构: web系统分为了表现、数据访问和业务逻辑三层,CDN针对动态内容的加速也就被分解为单独针对三层内容的依次加速。 CDN对表现层的加速 表现层基本上是web系统与用户发生直接交互的界面,这层通常由HTTP服务器直接构成,负责接收用户发起的服务请求并转交给后端的业务逻辑层,同时也负责接收业务逻辑层发来的处理完成内容,并付则组装为HTML页面转发给用户。由此不难看出,CDN在表现层完成的加速本质上还是一个静态内容的积极合理cache和分发。常见的,在表现层需要CDN缓存的内容通常包括: ?网页中嵌入的独立元素:典型如图片、各类脚本、flash动画、网银可能用到的activeX控件等。 ?真正的多媒体内容:如视频 ?网页的部分片段内容:如公用的广告栏或导航栏。 CDN在业务逻辑层的加速 一般情况下,逻辑层往往是web系统的核心,负责处理所有的业务逻辑并生成动态内容,换而言之,在逻辑层不存在可以直接大量缓存的结果数据,而代之以的是运算过程。

相对的加速也就转变为边缘计算。顾名思义不难理解,边缘计算是指将应用程序及其及其所需的数据和运算能力从少量而集中的网络的中心节点转移到接近用户的网络的逻辑边缘位置。 传统上,在典型的web服务部署结构中,用户直接通过URL对布置在数据中心或中心节点的应用系统发起请求,而应用服务器则通过参数或其他类似机制给予客户反馈,在边缘计算的过程中则不在直接是这样。采用边缘计算服务之后,应用系统及其数据被复制到了成千上万的更靠近用户的分发服务器中,在利用边缘计算平台提供的计算能力之外,也减少了从中心节点读取数据的次数和大小,降低了整个系统的响应时间。 CDN在数据访问层的加速 通常情况下大型网站系统的应用瓶颈往往存在于多个节点,可能是业务逻辑的运算,也有可能是后端的I/O,尤其是数据库IO,在此种情况下,就需要考虑使用CDN对应用数据进行加速了。当前,主流的加速技术还是复制,在边缘服务器上复制web系统数据访问层的方法可以分为整体缓存和部分缓存两大类,其中部分缓存按照缓存内容预知情况可以分为盲缓存和已知缓存。 整体缓存 整体缓存最容易理解,一般是指将数据库整体复制到多台或全部边缘服务器上,在此种情况下,边缘服节点可以完全不依赖中心节点而独立的生成完成的内容。显而易见,在整体缓存中最重要和最大的挑战的就是保持各节点之间的数据一致性。 确保所有节点上的数据一致性,关键在于及时或即时讲数据更新扩散到各个副本上,其中扩散的方法可以大致分为两类,即惰性扩展和积极扩展。积极扩展指在实现一个针对数据的更新之前通知各副本更新数据,惰性扩展则把这个步骤遗留到了更新完成之后。理论上来说,积极扩展实现了即时的数据更新,但在实践中却由于性能、扩展性等方面因素而很难实现;相反,惰性的方法由于不存在这些方面的问题,且其延时也相对容易被用户理解,故而得到了广泛的应用。 盲缓存 盲缓存是指缓存的对象是应用系统中最近一段时间最常用的查询或查询数据,并将其复制到边缘服务器上。显而易见,此种缓存的内容只能包含之前已经被查询过得内容,在此种情况下,影响效能的核心因素就成了缓存内容的命中率了。为了解决这个问题,最常见的解决方案是优化查询结果,以匹配更多的查询。例如,针对一个新的查询请求,尽管其结果在缓存中不存在直接的对应,但是可以由多个之前的查询结果复合而成,进而减少了对中心节点的源服务器的访问请求,降低了整体的相应时间。

数据库系统工程师考试知识点精讲(高速缓冲存储器)

数据库系统工程师考试知识点精讲(高速缓冲存储器) 数据库系统工程师为软考中一门中级资格考试,以下是小编整理的一些数据库系统工程师考试知识点精讲,供大家参考学习。 高速缓冲存储器 Cache的功能是提高CPU数据输入输出的速率,突破所谓的“冯•诺依曼瓶颈”,即CPU与存储系统间数据传送带宽限制。高速存储器能以极高的速率进行数据的访问,但因其价格高昂,如果计算机的内存完全由这种高速存储器组成则会大大增加计算机的成本。通常在CPU和内存之间设置小容量的高速存储器Cache。Cache容量小但速度快,内存速度较低但容量大,通过优化调度算法,系统的性能会大大改善,仿佛其存储系统容量与内存相当而访问速度近似Cache。 1.Cache基本原理 使用Cache改善系统性能的依据是程序的局部性原理。依据局部性原理,把内存中访问概率高的内容存放在Cache中,当CPU需要读取数据时首先在Cache中查找是否有所需内容,如果有,则直接从Cache中读取;若没有,再从内存中读取该数据,然后同时送往CPU和Cache。如果CPU需要访问的内容大多都能在Cache中找到(称为访问命中),则可以大大提高系统性能。 如果以h代表对Cache的访问命中率(“1-h”称为失效率,或者称为未命中率),t1表示Cache的周期时间,t2表示内存的周期时间,以读操作为例,使用“Cache+主存储器”的系统的平均周期为t3,则: 计算机硬件基础

系统的平均存储周期与命中率有很密切的关系,命中率的提高即使很小也能导致性能上的较大改善。 例如:设某计算机主存的读/写时间为100ns,有一个指令和数据合一的Cache,已知该Cache的读/写时间为10ns,取指令的命中率为98%,取数的命中率为95%。在执行某类程序时,约有1/5指令需要存/取一个操作数。假设指令流水线在任何时候都不阻塞,则设置Cache后,每条指令的平均访存时间约为: (2%×100ns+98%×10ns)+1/5×(5%×100ns+95%×10ns)=14.7ns 2.映射机制 当CPU发出访存请求后,存储器地址先被送到Cache控制器以确定所需数据是否已在Cache中,若命中则直接对Cache进行访问。这个过程称为Cache 的地址映射(映像)。在Cache的地址映射中,主存和Cache将均分成容量相同的块(页)。常见的映射方法有直接映射、全相联映射和组相联映射。 (1)直接映射。直接映射方式以随机存取存储器作为Cache存储器,硬件电路较简单。直接映射是一种多对一的映射关系,但一个主存块只能够复制到Cache的一个特定位置上去。Cache的块号i和主存的块号j有函数关系: i=j%m(其中m为Cache总块数) 例如,某Cache容量为16KB(即可用14位表示),每块的大小为16B(即可用4位表示),则说明其可分为1024块(可用10位表示)。则主存地址的最低4位为Cache的块内地址,然后接下来的中间10位为Cache块号。如果内存地址为1234E8F8H的话(一共32位),那么最后4位就是1000(对应十六进制数的最后一位“8”),而中间10位,则应从E8F(111010001111)

实用CDN加速解决方案

给大家介绍一款免费的缓存加速系统,帮助我们网页加速,视频加速,网站加速等等。 缓存加速管理系统软件管理平台解决方案 是一套基于架构开发的缓存加速系统及管理系统,高效,稳定,安全. 可帮助大中小站长或大中小企业低成本,快速简单,构建自己的网络或服务器群,提供专业的加速服务或增值服务,更好的在线服务,更快速的网络和网站. 使用,自架加速,架构加速,提供加速服务加速解决方案,变得容易和简单 功能特性 运行于开源系统,安全,稳定,高效 基于高性能开源软件开发,集中管理,易操作,高性能等 可对节点进行分线路,分组管理,更易于对节点服务器的管理 支持父节点中转节点,可针对站点设置或指定父节点中转节点, 支持缓存规则缓存时间自定义,根据应用需求更灵活设置 完整支持伪静态,完善解决错乱,网购类网站登录,购物车登录等问题 支持防盗链设置 主控节点支持双线双,源站支持双线双服务器 支持设置域名解析回源,需与结合使用 安装简单,一键安装,执行一个脚本,即可完成 具体功能列表 集中管理,主控可管理所有节点系统,包括站点管理更新操作,系统资源监控等 分路线可针对不同用户和需求设置线路以满足用户,如网通,港台,海外等 节点分组,可针对不同配置,应用进行分组达到更方便管理节点服务器和优化加速服务 主控节点支持双,便于节点与源站的数据传输 支持父节点中转节点,可选全站启用,智能启用,站点启用,并可指定所使用的父节点 产品化购买开通,方便用户自助注册开通服务,增加加速站点 站点数据系统后台定期同步,并详细记录同步状态结果,以便查看以便查看及再同步 定期检测站点到期时间,自动暂停服务,到期通知等 可在线设置缓存加速的文件类型,大小,及硬盘,内存的大小等 支持缓存规则自定义,针对站点或域名缓存时间,宕机时间,支持论坛伪静态 支持防盗链设置,可设置允许连接的域名和站点 可监控节点系统资源,负载,内存使用,硬盘空间使用等 可监控节点服务状态,并发短信或邮件通知 可监控源站点是否正常并短信或邮件通知 节点服务器带宽统计,生成日,周,月,年的报表 站点域名带宽流量统计汇总,可按当天,昨天,本周,本月,上月查看,可查看最近分钟带宽占用最大的站点 访问统计,可统计文件的缓存率,回源数,访问错误的统计,文件类型的统计,地区统计,运营主统计 可网站按天生成打包提供下载 数据备份,每天定期备份数据库并可上传到指定的远程服务器,以保证数据库的安全 系统模板化,便于用户定制或设计自己的页面界面 详细的操作日志及系统日志,便于查看系统的状态 支持支付宝自助充值和开通服务 1 / 2

傲腾和PrimoCache配合加速教程

Optane Memory 傲腾和Primo Cache配合加速教程(Windows版) 仅供参考 Optane Memory 傲腾介绍 傲腾内存的确切称呼应该是傲腾智能缓存或傲腾技术,傲腾内存,是英特尔基于3DXpoint存储介质而打造的缓存设备,可以为机械硬盘进行加速。它兼容了NVMe(非易失性存储器)存储协议,由3D XPoint内存介质、英特尔内存和存储控制器、英特尔互联 IP 和英特尔软件共同构成,不仅可以为传统机械硬盘提供更高的性能和响应能力,而且还让低成本高容量、高速存储成为了可能。 3D XPoint是傲腾内存的核心关键技术,也是傲腾内存能够提升PC性能的根本原因。3D XPoint是由英特尔和镁光科技共同推出的非易失性存储技术,英特尔将该技术称为Optane,而镁光则称其为QuantX。 主要作用:为机械硬盘加速用的。提升开机速度、提升软件加载速度、提升软件素材、文件加载速度、提升游戏加载速度。 Primo Cache软件介绍 Primo Cache是一款非常好用的虚拟硬盘加速软件,能够轻松提升电脑的运行流畅度,还能够进行全局调节,软件的使用方法和操作方式也十分的简单,轻轻松松就能够完成硬盘加速任务,扩展用户的虚拟内存,轻松让低配置电脑拥有高配置电脑的体验。Primo Cache 能够对机械硬盘、固态硬盘、闪存盘等等存储介质进行优化,如果用户家里拥有低配置电脑,又不想换但是却受不了日渐缓慢的速度,那么这款软件能够帮助你享受高端机的体验。 支持物理内存、SSD固态硬盘、闪存盘等作为缓存设备, 采用双级缓存系统架构, 支持永久二级缓存, 支持“直接写入”和“延迟写入”两种写入模式, 支持 TRIM 指令, 支持系统未识别内存, 支持预取数据到缓存, 内置自适应智能缓存调度算法, 支持三种缓存策略:读写缓存、仅读缓存和仅写缓存, 支持性能数据监视和统计, 支持同时缓存多个硬盘和多个分区, 支持缓存采用自定义文件系统的分区,

互联网缓存加速解决方案

互联网缓存加速解决方案 随着各种互联网应用和发展,特别是众多视频服务的快速成长,各种互联网创新应用的日益普及,对宽带资源的消耗越来越大,即时宽带建设极为发达的国家,也面临些宽带资源紧张的问题,中国的情况也不能幸免。 中国的宽带运营商在面临激烈的市场竞争的同时,也为宽带运营的高昂成本而苦恼。内容加速系统,可以帮助社区宽带/广电/无线运营商以较低的投入,提供更大的服务容量,并提升服务品质,降低宽带运营成本,在激烈的市场竞争中获得优势。 内容加速系统实现自动按需缓存内容,在网络使用高峰期减少HTTP下载和P2P下载对互联网骨干的流量压力,帮助宽带运营商获得更高的网络带宽使用效率,改善了网络质量,减少了技术支持电话、客户投诉数量和客户流失率。 内容加速系统还有效的改进对HTTP、P2P和非P2P应用的网络响应速度,增强了用户体验。对于经常使用P2P下载和在线视频的用户,他们可以用更快的速度透明的从系统中访问到已缓存的内容,而无需占用互联网骨干带宽。

内容加速系统帮助宽带运营商同等对待P2P流量和用户,而不再通过限制和禁止等手段来控制HTTP下载和P2P下载对网络的影响,系统把占用大量带宽的HTTP和P2P流量限制在宽带运营商网络内部,帮助运营商优化网络流量,为提供更多增值服务创造更好条件。 内容加速系统应用了多项创新技术,运行可靠稳定,部署灵活快速,可采用通用高性能服务器支持部署,如采用专用系统设备效率更高。 内容加速系统提供易用、可视化的基于Web页面的管理界面,也提供基于命令行的高级管理接口。对于大规模部署场景,还提供集中网管解决方案,实现集中配置管理、数据分发和日志报表汇聚功能,运营商可以轻松监控多个节点的健

高速缓冲存储器的功能、结构与工作原理

高速缓冲存储器是存在于主存与CPU之间的一级存储器,由静态存储芯片(SRAM)组成,容量比较小但速度比主存高得多,接近于CPU的速度。 Cache的功能是用来存放那些近期需要运行的指令与数据。目的是提高CPU对存储器的访问速度。为此需要解决2 个技术问题:一是主存地址与缓存地址的映象及转换;二是按一定原则对Cache的内容进行替换。 Cache的结构和工作原理如图2.3.1所示。 主要由三大部分组成: Cache存储体:存放由主存调入的指令与数据块。 地址转换部件:建立目录表以实现主存地址到缓存地址的转换。 替换部件:在缓存已满时按一定策略进行数据块替换,并修改地址转换部件。 2.3.2 地址映象与转换 地址映象是指某一数据在内存中的地址与在缓冲中的地址,两者之间的对应关系。下面介绍三种地址映象的方式。 1.全相联方式地址映象规则:主存的任意一块可以映象到Cache中的任意一块 (1) 主存与缓存分成相同大小的数据块。 (2) 主存的某一数据块可以装入缓存的任意一块空间中。 全相联方式的对应关系如图2.3.2所示。如果Cache的块数为C b,主存的块数为M b,则映象关系共有C b×M b种。

图2.3.3示出了目录表的格式及地址变换规则。目录表存放在相关(联)存储器中,其中包括三部分:数据块在主存的块地址、存入缓存后的块地址、及有效位(也称装入位)。由于是全相联方式,因此,目录表的容量应当与缓存的块数相同。 举例:某机主存容量为1M,Cache的容量为32KB,每块的大小为16个字(或字节)。划出主、缓存的地址格式、目录表格式及其容量。

容量:与缓冲块数量相同即211=2048(或32K/16=2048)。优点:命中率比较高,Cache存储空间利用率高。 缺点:访问相关存储器时,每次都要与全部内容比较,速度低,成本高,因而应用少。 2.直接相联方式 地址映象规则:主存储器中一块只能映象到Cache的一个特定的块中。 (1) 主存与缓存分成相同大小的数据块。 (2) 主存容量应是缓存容量的整数倍,将主存空间按缓存的容量分成区,主存中每一区的块数与缓存的总块数相等。 (3) 主存中某区的一块存入缓存时只能存入缓存中块号相同的位置。 图2.3.4示出了直接相联映象规则。可见,主存中各区内相同块号的数据块都可以分别调入缓存中块号相同的地址中,但同时只能有一个区的块存入缓存。由于主、缓存块号相同,因此,目录登记时,只记录调入块的区号即可。

DCCache 互联网内容加速系统

DCCache 互联网内容加速系统?
DCCacheX 系列 产品概述: 随着高速互联网和大数据时代的发展,互联网资源和应用日益丰富的同时,动辄以 GB 为 单位的数据下载、大型在线游戏、在线视频点播成为互联网应用的主流。昂贵的互联网带宽租 用费用和有限扩展性,使校园网等大型用户的出口带宽无法跟随应用的丰富而无限扩展,导致 校园网等大型用户日常的互联网应用体验较差,具体表现在如下几个方面: z 视频应用:文件放映不流畅、拖卡、多次缓冲,严重影响用户的观看情绪,随着高 清时代的到来,这种问题愈发显得严重。 z 文件下载:实际下载速度与运营商提供的带宽标称值相差较大,大文件下载耗时过 长, 对于普通 HTTP 资源下载则可能会出现下载中断或源站失去响应的情况而必 须重复下载,进一步加剧了互联网出口带宽的负荷。 基于互联网带宽的窘迫现状,神州数码互联网内容缓存系统专注于互联网热点内容本地 化,将互联网上的热点资源(包括热门视频、热点事件、常用软件等)本地化,变互联网为用 户内网,为用户提供透明的极速网络体验。
第 1 页
共 4 页

产品功能: ? 互联网资源本地化
? ? ?
热点资源智能侦测 热点资源智能下载 热点资源本地复用
?
? 三大互联网核心应用
? ? ? ? ? ? HTTP 文件下载加速 HTTP 视频流媒体加速 视频客户端加速 微软应用、补丁系统加速 病毒库下载加速 移动终端应用加速?
产品特点 支持广泛
支持优酷网、土豆网、奇异网、新浪视频、搜狐视频、网易视频、腾讯视频、酷六 网、56 网、中国网络电视台、激动网、PPTV、迅雷看看、乐视网绝大部分视频网站 等,支持视频客户端 支持普通 http 文件资源下载,支持 BT、迅雷等主流 P2P 资源下载 支持微软补丁、常用病毒库等高利用率资源下载 支持安卓、苹果移动应用下载 高达 90%的资源命中率,实时提升资源的利用率 简单的无故障旁路部署,完全不改变用户的任何网络结构
高效可用 透明部署
第 2 页
共 4 页

相关主题
文本预览
相关文档 最新文档