king

综述:WAN优化的四个方面

king 运维技术 2022-11-14 399浏览 0

在当今所有企业都在为IT项目节约成本的大趋势下,除了走服务器融合的道路以外,大家都把压力推给了广域网(WAN)。幸运的是,字典压缩可以很好地解决服务器融合所带来的挑战,但是如果你的广域网是发送像加密流量这样的随机数据——如安全套接层 (SSL)一样,压缩并不是最好的WAN 优化 技术。

如何通过WAN优化加速加密流量的交付?

对于像压缩技术等类似的WAN带宽优化技术来说,大多数WAN优化设备都可以通过利用SSL流量中的首个不加密流量解决关键问题,比如说先压缩流量,之后再重新加密。并且在这个过程中,两边的终端都不会察觉这个变换,也不会产生任何影响。WAN优化控制器(WOC)所做的解密和重新加密的流程,与其他所有服务供应商的方法都不同。WAN管理人员必须明确地了解设备处理SSL加密流量的具体方法,来确保其方法适用于其企业的关键管理系统。

通过服务器融合减少产生的数据只是服务器融合的效应之一。响应时间同样受到低效的通用互联网文件系统(CIFS)协议的影响。而WOC可以通过优化CIFS解决这个问题。CIFS是一个运行在用户PC和Microsoft服务器上的应用程序间的端到端协议。WOC首先打破了端到端的传统模式便可以对其进行优化。在分支机构中,WOC面对用户PC扮演了服务器的角色,而WOC在数据中心中,面对服务器则扮演了用户的角色。

我们来举一个例子详细说明它是如何优化响应时间的。当用户需要一个文件时,服务器会向用户PC发送若干个数据包。当用户PC接收到这几个数据包之后,它会向服务器反馈一个确认信号,该信号通知服务器已收到之前的数据,请发送下一个数据包。相比于在局域网(LAN)中传输而言,由于服务器需要等待确认信号,延迟的WAN会延长文件的传输速度。WOC就是通过加速中间部分的进程来解决这一问题的。当用户需求一个文件时,WOC把需求发至服务器。服务器发送数据包至WOC,此数据包也是直接发送至用户PC的。此时,WOC会立即发送确认信息至服务器,就当做是PC已收到了之前的那个数据包。之后服务器就会开始发送下一个数据包了。

这个进程还会继续,数据中心WOC会快速收到整个文件并发送至分支机构的WOC中。分支机构WOC再把数据发送至之前发送了确认信息的用户PC中。不需要再像从前一样需要把确认信息发送至数据中心的服务器中,分支机构WOC就可以直接发送数据,它的作用几乎就是一个服务器。这其中的关键就是这两个WOC可以很好地处理本地确认信息,并可以快速接收并发送这些信息。促进了文件在本地的传输速度,解决了数据中心中服务器的响应时间问题。

服务器融合带来的另一个影响就是服务,包括动态主机配置协议(DHCP),域名服务器(DNS),活动目录以及本地打印问题。大多数WAN优化供应商都选择通过优化器服务器版本或选择成为Microsoft的合作伙伴来解决这一问题。所以大部分WOC都可以变身为Microsoft服务器以适应新情况。由于每个供应商的产品都是独一无二的,WAN管理员需要知道这些产品的具体功能和处理方法来判断其是否适合于企业环境。

带宽节流有助于管理链路利用

通常情况下只是对“症”下药而非从根本上进行处理往往都无法成功地解决问题,当然也包括带宽消耗。刚开始效果可能是积极的,但是这些成效通常都是短暂的、不可靠的或不可预测的,也没有良好的规模性。带宽节流就是这样一种以寻求治标的方法(缓慢的传输或过长的响应时间),而非治本(低带宽的可用性、处理峰值、未授权应用、错误的资源链接等等)的方法。然而,这种技术已经开始不再被使用或者说已经恶评不断了。

带宽节流是保证带宽密集型设备在一些特定时间段内对传输和接收的数据量的限制,如路由器或网关。当网络处于饱和状态时,带宽节流可以减少网络阻塞和降低服务器的不稳定性。对于ISP,带宽节流可以限制用户浏览某些应用速度或在网络高峰时的访问速度。但是,如果不清楚要求进行连接限制的流量激增原因,那么一段时间后负载又总是会再次达到峰值,然后又必须再次进行带宽节流。

数据中转服务器是根据一个简单的供求原则运行的:客户端发起请求,然后服务器对其作出响应。但是,对于服务客户端请求的Internet应用服务器则主要是在高峰运行时期和网络繁重和极端负载时出现过载的。这样的负载高峰时期会产生数据拥塞或连接瓶颈,这都可能导致服务器不稳定,甚至最终系统故障而死机。带宽节流是作为一种预防性的方法,它可以控制服务对于根据在一天中高峰时段出现的任何客户端请求峰的响应。

2008年2月,联邦通讯委员会(Federal Communications Commission)成员宣布他们将考虑通过立法来阻止因特网供应商在网站和服务器上选择性限制那些可能消耗大量带宽的站点和服务的带宽。在2007年底,Comcast通过限制高峰时段的连接(仅仅是上传)主动地限制它的一些使用文件共享客户端和协议的高速因特网用户。这个做法至今仍然备受争议。

组织可以(也应该)使用带宽节流或防火墙过滤来限制或阻止明显违反可接受使用政策(Acceptable Use Policy)的流量。然而,带宽节流的最佳应用形式是Class of Service or Quality of Service (CoS/QoS)记号,它可以应用到各种类型和特定实例的网络流量中。CoS 和 QoS 表示的是一种网络流量的分类表,它给时间敏感和关键任务流量更高的优先级,而不明确地限制特定类型的流量。大多数专家都建议只将未授权的或不需要的协议应限制在极低水平的带宽(低于10Kbps),而非将其完全阻挡,这样网络管理员就仍然可以搜寻和处理其中涉及的用户或程序。因此,比如,通过将P2P协议如BitTorrent(用于视频和其他个人媒体下载)或FastTrack(Kazaa协议)的带宽限制到5K或10K比特/秒,这样管理员就有时间确定进行P2P连接的工作站或服务器等终端,并从而确定正在使用的个人。然后他们就可以按照可接受使用政策(AUP)来劝告或惩罚用户。

使用压缩技术减少带宽使用

从X.25和Bulletin Board Systems(BBS)使用1986年提出的ZMODEN文件传输协议开始,由于它们减少流量的作用,各种提高性能的压缩方案都已经作为互联网网络通信不可分割的一个部分了。二十多年后,压缩技术频繁地出现在更现代的面向网络的协议中,如Secure Shell(SSH)和当代WAN优化产品中的字节压缩数据流缓存技术。

在电信方面,带宽压缩指的是:减少在一定时间内传输一定数量的数据所需的带宽,或减少在一个特定带宽限制下传输一定数量的数据所需的时间。这意味着由于适当的使用数据压缩技术,减少了信息中转信号的正常带宽(或时间)而并没有减少信息内容。这对于WAN环境是很有用的,但是在没有加速压缩硬件的条件下可能无法实现最大程度的压缩和最少延迟时间的解压缩(虽然现在的软件发展很快,但是硬件往往还快上好几个数量级——这是现代WAN连接速度的一个重要的特征)。WAN优化设备一般包括符号和对象字典,它能减少的数据量甚至比单独的压缩机制能实现的还要多,这个我们将在本章后面进行探讨。

重复冗余指的是模式和元素在一对发送者和接收者之间的常规流量流中反复出现的方式,它是为什么压缩方案仍然盛行的一个最重要的原因。从正面的分析角度来看,大部分数据传输网络中包括了不必要的重复,这会浪费一定的字节、时间以及传输所需要的带宽。利用一切可能的方法来压缩数据有利于恢复网络秩序的平衡,同时也是针对无用的网络延迟的几个为数不多的措施之一。

许多不同类型的压缩技术都是非常适合网络媒体的,但是所有这些技术都是致力于减少WAN传输过程中的带宽消耗。报头和有效负荷压缩技术利用匹配模式算法来识别网络中简短但频繁重复出现的字节模式,并用更简短的代码字段代替它以减少最终的传输大小。简化的算法能够识别单独数据包的重复字节模式,而先进的压缩形式可以在多个数据包和网络流中分析模式。

任何压缩战略带来的好处都一定会根据不同的WAN流量混合和包装而变化。压缩数据文档(如ZIP或TAR文件)都无法使用网络压缩方案进一步地减少,但是对各个不同的流量进行压缩仍然可以有效的提高WAN带宽。语音协议大大收益于UDP报头压缩以及其他技术,如数据包合并,将在下节进行阐述。

冗余叠加拉近文件与用户的距离

冗余并非总会损害网络性能或吞吐量。有很多应用和例子可以说明多重性是如何提高性能的。事实上,WAN环境由于使用文件服务的冗余叠加而受益匪浅,因为它将文件和数据带到离终端用户更近的位置。

正如DNS系统已经向我们与演示的,网络可以同时有效地以统一的和分散的方式运作。一个单一的、统一的信息可以是许多来源合并的,并可以分布到一个完全分散的系统然后传输到网络世界的任何一个角落。将数据合并汇总到一个的位置可能仅仅有利于那些非常接近数据中心的网络用户,但是这样做可能给其他一跳以外的网络用户带来可达性问题,尤其是那些必须使用窄带或昂贵的WAN链接来连接数据的用户。

在一国际性分散公司采用集中授权或单一来源的信息发布方式可能对于远程和漫游用户带来可预见的负面问题,因此更好的方法是将信息在多个位置复制,以便处于任何位置的用户都可以快速地访问到。DNS数据库就是这样,它有主数据库和从数据库,有授权版本和非授权版本,以及对最近活动的详细缓存,从而它实现了一个广泛颁布和分散地使用分布式数据的模式,这非常好地支持了全球因特网的正常运作。类似的,冗余叠加尝试将文件尽可能地分布在离用户机器不超过一两个WAN跳的位置,而不管它们在某个时间的最终位置。

目前,很多公司都在努力解决服务器整合和扩散带来的挑战。许多内部服务器仍然为各种应用服务和网络协议工作,尽管它们数量庞大却并非总能在需要的地方提供及时的服务。许多公司转而选择在其地理位置边界上的战略性位置架设了几个关键服务器,以更好地满足“远距离的”团队和用户的访问需要。这种方法允许一组精密同步的服务器处理多个基本业务,而这些服务器需要能向任何位置的任何人提供相当的可达性、带宽和安全性。跨多个物理服务器的复制使这一方法成为可能,而通过虚拟化,运行在不同的虚拟编码空间的单独服务也可以使该过程更可操作,而且维护和监督更可行。

网络设备和终端用户往往被分散在各个分支机构、用户位置和跨地域的ISP上。一个设计良好的服务器整合策略必须集基础设施,同时降低服务器数量以节省开支和改善管理。不幸的是,这实际上也加大了保证远程位置的无缝WAN连接的要求,而当连接失败时产品交付也将无法进行。这意味着,随着远程连接用户的增加,必须有某种机制或某些机制适当地分担部分的流量。

在开放时间,很多业务承受激增的初始网络流量,这些流量是由大量的用户同时登录到一个或多个服务器时产生的。身份认证和DNS目录服务访问通常会在这个所有人在同一个时间登录的“赛前热身”过程中出现问题,因此必须采取某种方式来进行流量优化和优先级排序,以在减少登录等待时间。一个综合的WAN优化解决方案有助于获得最佳网络架构,因为它能最大限度地利用WAN连接带宽,同时它也优化流量优先级,使得在发生拥塞时优先高的数据总能通过。因此,在早上一边喝着咖啡一边敲击键盘的用户,可能仍然需要等上一分钟(不夸张的)时间来下载电子邮件,但是当他/她输入帐号和密码并按下回车后,他或她仍然可以很快得到响应。

作者:Robin Layland、Ed Tittel

继续浏览有关 网络 的文章
发表评论