网络系统性能范文(精选11篇)
网络系统性能 第1篇
随着计算机网络技术的迅猛发展, 高校数字化校园建设正如火如荼的进行, 各高校纷纷采用网络选课系统替代基于C/S结构的选课软件进行选课工作。网络选课系统不仅为学生提供了公平、合理的选课平台, 而且大大减少了教务人员的工作量、提高了工作效率。
但是在此选课方式下, 会出现大量学生在集中时间段内访问系统的情况, 骤增的访问量会给系统造成严重的负载压力, 甚至导致系统崩溃。这样不仅达不到提高工作效率的目的, 反而使选课工作无法完成。所以如何优化选课系统性能是必须考虑和解决的关键问题。
1 选课系统性能优化策略
1.1 总体优化方案设计
采用缓存处理技术和负载均衡技术对系统性能进行优化。优化模型结构如图1所示。
客户端发送过来的请求发送给F5负载均衡器, 负载均衡器通过一定的调用算法决定启用的真实服务器。在数据库链接池中事先建立若干链接, 真实服务器的请求通过一定算法决定使用的链接, 并通过该链接与数据库通讯, 然后将结果返回给真实服务器。由真实服务器返回的数据如果是静态的 (如课表信息) , 则经过缓存服务器, 并在缓存中保存该数据, 如果是动态的, 则将数据直接传回给F5负载均衡器, 最后返回给客户端。
1.2 负载均衡设计
1.2.1 Web服务器集群
采用Web服务器集群技术以提高选课系统的性能, 其具有的优势如下:
(1) 提高可靠性。当集群中某个节点服务器出现异常的时候, 其他的节点仍然可以继续工作, 从而使系统的可靠性大大提高。根据概率论, 随着集群节点服务器数量的增多, 所有节点服务器同时出现故障的概率会趋向于无穷小, 所以采取适当的措施完全可以做到使系统7天24小时不间断运行。
(2) 提高响应速度。采用服务器集群技术可以将整个系统的负载比较平均的分配到集群中的各个服务器节点中, 从而使系统的负载承受能力有很大提高, 避免出现停机的情况。同时每个节点服务器的负载减轻以后, 其响应速度也会加快, 从而使选课系统的整体性能有所改善。
(3) 提高可伸缩性。集群中的各个节点服务器可以是彼此异构的, 并且集群系统的整体性能并不依赖于单个节点的性能, 所以完全可以采用校园网机房或实验室的普通服务器或PC机来构建集群。这样做一方面可以节省大量资金, 另一方面也可以根据需要动态控制集群中节点服务器的数量, 以适应不同阶段的需要, 即具有较好的可伸缩性。
1.2.2 F5负载均衡技术
对选课系统进行分析后发现选课系统的如下几个特点对于选择合适的集群类型有重要影响:
(1) 访问的突发性:在选课系统中, 因为系统的负载量主要来源于学生的选课操作, 而选课是在每个学期的某个集中时间内进行的, 因此访问有突发性的特点。在选课时间内, 骤增的访问量会使Web服务器难以承受, 而非选课时期的负载却比较轻, 即系统的负载量呈现出不均匀的特性, 因此要求集群系统的可伸缩性要比较强, 即可以根据需要增加或删除集群节点以适应不同阶段的需要。
(2) 高要求的可靠性:选课是高校教务管理中的一项重要任务, 因此对于系统的可靠性要求比较高, 否则会影响正常的教学管理秩序。在选择集群类型的时候, 相对比较成熟或者有较多成功实施经验的集群系统是比较好的选择。当集群中的节点服务器出现故障的时候, 集群系统应该可以自动进行调整将故障节点删除, 等恢复正常以后再将其加入到集群系统中, 以提供可靠的服务。
(3) 硬件设备的低端性:选课系统运行在校园网环境中, 学校各个部门拥有大量闲置的中低端设备, 包括各种交换机和服务器等, 因此应该考虑充分利用现有的各种设备构建集群, 而不是重新购买高性能的专用服务器或网络设备。因此, 应该选择支持异构服务器的集群系统, 且应该具有较好的可扩展性, 以降低系统整体实施费用。
鉴于以上特点, 本系统的负载均衡采用硬件负载均衡设备F5。其具有以下优势:
(1) 高可用性:BIG-IP动态分配每一个流量请求到后台的真实服务器, 并动态检查各个服务器的健康状态, 将下一个请求分配给最有效率的服务器, 任何服务器死机时, BIG-IP即刻将流量请求分配给其他的服务器, 从而达到99.999%的系统有效性。
(2) 高安全性:BIG-IP支持地址翻译技术和安全地址翻译, 这样一来客户不可能知道真正提供服务的服务器的IP地址和端口, 从而保护服务器不受到诸如SYN Flood等Do S及DDo S进攻。
(3) 高效率性:采用BIG-IP负载均衡之后, BIG-IP可以智能寻找最佳状态的服务器, 从而保证客户得到响应最快的服务器以提供最佳的服务。
(4) 高可扩展性:BIG-IP可以支持动态增加或删除其负载均衡的服务器群组的任何数量的服务器, 而不需要对前端或后台做任何改变, 从而使得系统扩展方便、透明。
(5) 高可管理性:BIG-IP有专门的管理软件可以实时监控整个数据库服务器群组的流量状态, 并分析发展趋势帮助系统管理员及时根据流量增长增加服务器。
1.2.3 负载调度算法
(1) 轮询算法
算法基本思想:把新的连接请求按顺序轮流分配到不同的服务器上, 从而实现负载均衡。
(2) 加权轮询算法
算法基本思想:根据真实服务器的配置情况和处理能力, 给每台真实服务器指定一个整数类型的权值, 该数值用来标识此服务器处理用户请求的能力。在循环轮转分配用户请求时, 优先把请求分配给权值较大的真实服务器, 权值较大的服务器将被赋予更多的请求, 一段时间后, 各服务器处理的请求数趋向于各自权值的比例。例如集群由3台内容服务器A、B、C组成且分配权值4:3:2, 则加权轮询算法的调度顺序是AABABCABC。该算法类似轮询算法同样采用循环的方式进行调度。
(3) 最小连接数算法
算法基本思想:该算法是以连接数目作为评判服务器状况的负载指标。负载均衡器记录各个真实服务器的连接数, 当用户请求到达时, 负载均衡器把该连接请求分配到当前连接数最小的真实服务器, 同时此真实服务器的连接数加1, 当连接终止或超时, 其连接数减1。
(4) 加权最小连接数算法
基本思想:该算法是最少连接算法的改进, 它为每个真实服务器Si指定一个整数权值Wi以标记服务器的性能 (性能较高的服务器具有较高的权植) 。
综上所述可以发现, 随着算法的复杂度逐渐增大, 算法的并行度和效率也随之提高, 其中加权最小连接数算法既考虑了各个真实服务器当前的连接状态, 又考虑了各个真实服务器的处理能力因素, 因而是服务器集群系统任务分配算法中最优的, 针对选课系统具有突发性、数量激增等特点, 所以本系统采用加权最小连接数算法。
1.3 缓存设计
1.3.1 系统特点分析
由于在选课过程中, 学生首先需要查询选课信息, 包括选课规则信息和开课课表, 然后再进行选课并提交结果。从这一过程中可以看出, 客户端所请求的数据既有静态数据也有动态数据, 因此在优化方案中对这两类数据设计了不同的处理方式。
对于静态数据, 从数据库返回的信息经过缓存服务器, 并在缓存中保存该数据, 下次需要同样数据的学生则直接从缓存中读取数据而无需再经过数据库的读取。例如, 同一个行政班的学生查询的课表是一致的, 该班中第一个进行选课的学生查询课表后, 该课表数据将从数据库中读取, 经过真实服务器传递给缓存服务器, 并保存在缓存中, 该班的其他同学查询课表时, 则直接从缓存服务器中读取, 而无需经过真实服务器访问数据库, 从而减轻真实服务器的负载压力、减少读取数据库的机会, 降低服务器死锁的概率。
对于动态数据, 从数据库返回的信息则不经过缓存服务器而是由真实服务器直接传回给F5负载均衡器, 最后返回给客户端。
1.3.2 缓存处理的工作原理
缓存服务器可以使用代理缓存服务器Squid, 其缓存处理的工作原理如图2所示。
由图2可知Squid缓存处理器的工作步骤如下:
(1) 用户Squid请求网站内容;
(2) Squid根据用户请求内容判断是否符合定制的策略;
(3) 符合定制策略则通过策略模块处理;
(4) 不符合策略则判断是否已经缓存, 即缓存命中;
(5) 若已经缓存命中则由Squid直接响应用户请求;
(6) 若没有缓存命中, Squid去真实Web服务器拿取内容;
(7) 若请求内容为静态内容, 则Web服务器直接响应请求, 若请求为动态内容, 则需要Web服务器和应用服务器交互, 将生成的内容交给Squid;
(8) Squid对从Web服务器得到的内容进行判断, 是否可以缓存。若可以缓存, 则在响应此用户请求的同时进行缓存, 等下一个相同请求到来时, 直接将缓存内容回应用户请求, 若不可以缓存, 则每次请求都直接穿透Squid, 访问后端服务器, Squid只作为代理服务器。
2 结束语
选课系统的使用证明此选课系统优化策略极大的缓解了负载压力, 提高了系统的易用性、稳定性和适应能力, 基本解决了“峰值堵塞”问题。当然, 随着大学扩招、生源的增多, 系统的负载能力还要继续经受考验。系统还可以进一步结合数据库链接池技术, 以及选课算法实现性能的完全优化。
参考文献
[1]朱锦晶.基于B/S结构网上选课系统的建模分析[J].科教文汇.2007.
[2]安凝.F5为网上应用加速[J].计算机安全.2006.
[3]马卫.一种改进的LVS集群负载均衡算法[D].武汉:华中师范大学.2006.
[4]孙延海.基于分布式WEB服务器集群的选课系统研究与设计[D].广东工业大学.2006.
[5]张靖.Web服务器负载均衡研究[D].成都:电子科技大学.2005.
NTFS提高系统性能 第2篇
一、簇的大小
根据NTFS卷要存储的文件的平均大小和类型来选择簇的大小,理想情况下,簇的大小要能整除文件大小(最接近的数值),理想的簇的大小可以将 I/O时间降到最低,并最大限度地利用磁盘空间。注意无论在任何情况下使用大于4KB的簇都会出现一些负面影响,比如不能使用NTFS的文件压缩功能及浪费的磁盘空间增大等。
有几种方法可以判断文件的平均大小,一种方法是从“开始”菜单,选择“运行”命令,输入cmd,然后回车进入命令提示符状态,在命令提示符下输入命令chkdsk,可以得到这个卷上的文件数和已经使用的磁盘空间,用文件数去除以已经使用的磁盘空间大小,就可以得到理想的簇的大小。
另一种方法是使用性能监视器,方法如下:从“开始”菜单中依次选择“设置”-->“控制面板”-->“管理工具”-->“性能”命令,然后根据追踪逻辑磁盘对象的平均磁盘字节/传输,使用这种方法可以得到更为精确的文件总和的大小和存储在这个卷上的数据类型。
二、由FAT转换而来的NTFS
从FAT转换到NTFS的卷将失去NTFS的一些性能优点,主文件表MFT可能出现碎片,而且不能在根卷上设置NTFS的文件访问权限,
要检查主文件表MFT上是否有碎片,可以用下面的方法:
从“开始”菜单中,依次选择“程序”-->“附件”-->“系统工具”-->“磁盘碎片整理”,对一个驱动器进行分析,然后单击“查看报告”,将报告信息拖动到主文件MFT碎片部分,即可查看总的MFT碎片。
把一个FAT转换成NTFS后,簇的大小是512KB,增加了出现碎片的可能性,而且在整理碎片时需要花更多的时间,所以最好在最初的格式化时就选择NTFS文件系统。
三、碎片整理
即使上面所提到的主文件表MFT没有出现碎片,碎片整理也是必不可少的,当磁盘上出现碎片时,访问一个文件时就需要磁头做更多的运动,延长了读盘时间,极大地影响了系统性能,因此使磁盘上的碎片维持在一个较低的限度是提高NTFS卷的最重要因素,经常的运行碎片整理程序非常有必要。
四、压缩功能
基于性能优化的网络系统分析与设计 第3篇
网络管理有五大功能域:故障管理、配置管理、性能管理、计费管理和安全管理。其中, 性能管理是指检测网络的各种性能数据进行阈值检查, 并自动地对当前性能数值、历史数据进行分析[1]。当网络性能很差时, 网络管理人员必须彻底弄清网络到底出现了什么状况。为了改善其状况, 提高其性能, 首先应对网络进行测定。最基本的测定方法是在开始某个操作时启动一个定时器, 以此来了解该操作花费了多长时间。例如, 通过启动定时器知道一个TPDU得到确认所耗的时间, 测定值的测定次数可以用计数器来实现。它是一个关键的测定值, 记录着某个事件发生的频度。
2 测定网络性能的注意事项
测定网络性能和参数存在很多潜在的问题和陷阱。任何测定网络性能的尝试都应该注意以下几点。
(1) 确保样本空间足够大。不要测定发送一个TPDU的时间, 而是重复进行约100万次测量然后取平均值。使用大的样本将减小测定的平均值和标准差的误差。该误差可以使用标准统计公式计算求得。
(2) 确保样本具有代表性。理想的做法是, 整个100万次测量应该在不同日期的不同时刻进行, 以便在测定的数量上考察不同的系统环境状况和系统载荷情况。
(3) 当使用粗粒度时钟时要小心。计算机时钟是通过在定期的时间间隔对某个计数器加1来实现工作的。例如, 一个毫秒计时器是每1ms让某个计数器加1。因此, 使用这一定时器来测量一个花费时间低于1ms的事件时, 需要多加小心。
(4) 确保在进行测试期间不会发生不可预知的事情。从测试的环境上看, 不同日期和不同时间内所得到的测定结果可能有所不同。最好是在一个空闲 (无载荷) 的系统上进行测试, 并建立自己的完整工作载荷。
(5) 缓存机制可能会干扰测量结果。为了测定文件传输时间, 最好的方法是打开一个大的文件, 读取全部内容, 关闭它, 然后统计花费的时间。接下来, 重复多次这种测定, 以得到一个较为准确的平均值。然而, 系统可能会缓存该文件, 因此只有第一次测量确实包括了网络传输, 其余的测量只是从当地的缓存中读取。除非想测试缓存的性能, 否则由此得到的测量结果实际上是毫无价值的。此时, 可以简单地使缓存变满 (溢出) , 以回避缓冲机制。
(6) 缓冲机制有与此相类似的效应。一种常用的TCP/IP性能测试工具曾报告UDP的性能比物理线路所允许的明显高。对UDP的调用一般在内核接受了报文, 并将其加入到传输队列中后便交回控制权。如果存在足够大缓冲区空间, 测定出1 000次UDP调用并不表明所有数据都已经发送出去了。此时, 大多数数据可能还在内核中, 但该性能测试工具认为它们已经被传输出去了。
(7) 明白在测量什么。当测定读取一个远程文件的时间时, 测量结果依赖于网络、客户、服务器两端所使用的操作系统、所使用的特定的硬件接口卡、它们的驱动程序以及其他因素。如果足够小心, 最终会得到针对所用配置文件的传输时间。如果目的是为了调整这一特定的配置, 那么这些测量是很有好处的。但是, 如果是在三个不同的系统上进行类似测量, 以决定选用哪种网络接口卡, 那么完全可以丢弃该结果。因为可能某种网络驱动程序很差, 只能发挥网卡性能的10%。
(8) 注意对结果的外推。假如网络载荷为0 (空闲) 到0.4 (容量的40%) 时, 对某方面性能进行测定, 结果由图1中的测量值的数据点和通过这些数据点的实线段表示。按线性进行外推, 如点线所表示的。然而, 很多排队论结果包括一个1/ (1-ρ) 因子, 这里ρ为载荷。所以, 实际值可能看起来更像虚线所表示的。
3 设计和部署网络中的基本要求
测量网络性能并依据测量的结果修改网络, 通常可以显著提高网络性能, 但这并不能代替一开始对网络进行良好的设计。如果要对新的网络进行设计和部署, 则应该注意在设计和部署的过程中认真遵循以下几个基本要求:
(1) CPU速度比网络的速度更重要。长期的经验表明:在几乎所有的网络中, 操作系统和协议的开销比在传输线路上所花费的时间多得多[2]。以Ethernet为例, 网络上最短的RPC时间理论上等于102μs, 它对应于64Bytes的请求控制帧和64Bytes的应答控制帧。而实际上, 如果使RPC时间能够低于1500μs就已经很好了, 这里多出来的RPC时间开销几乎都来自于软件。如果将CPU速度加倍, 那么处理软件的速度就会加倍, 数据吞吐量也会随之加倍。
(2) 减少分组数, 以减少软件开销。处理一个TPDU, 包括每个TPDU的定量开销 (如头部处理) 和处理每个字节的定量开销 (如计算校验和) 。例如, 当网络中传送10MB数据时, 无论TPDU的大小如何, 每个字节的定量开销都是一样的。但是, 采用256Bytes的TPDU意味着处理每个TPDU的开销与采用2k B TPDU的处理开销一样多, 即相当于增加8倍, 这种开销将急剧增加。
(3) 使环境切换次数最少。环境更改对网络性能有害, 可能导致大量的缓存不命中。因此, 可以让发送方将待发送的数据在内部缓存中累积到一定数量时再进行发送。同样, 接收方应该将到达的少量TPDU累积起来到达一定数量时, 将它一并送给用户。两种情况均可以让环境切换的次数变成最小, 从而朝着有利于网络性能的方向发展。
(4) 使数据复制次数最少。网络中复制多个副本比多次的环境切换更能危害网络性能。一般而言, 接收方对于到达的分组, 在将其中包含的TPDU传送给应用程序前, 通常要被复制3~4次。操作系统每次复制一个字, 即意味着需要复制约5条指令。5条指令分别为:加载、存储、变址寄存器加1、测试数据是否结束以及条件分支[3]。对于执行速度是50MIPS的机器, 以每复制用5条指令表示的32位字, 且复制3个副本的话, 则每个到达的字节需要75ns[4]。这样的机器可以以大约107Mb/s的最高速率接收数据。如果考虑环境切换、数据头部处理等诸多影响数据传输速率因素, 机器可能以50Mb/s传输数据。然而事实上, 机器连处理50Mb/s的线路也做不到。在上述计算中, 有一个假设:50MIPS的机器每秒可以执行任意5 000万条指令。实际上, 如果不访问内存, 它才能以这一速度运行, 而内存操作常被认为比寄存器-寄存器指令慢得多, 所以从1Gb/s的线路上得到16Mb/s, 便可以认为很不错。
(5) 带宽更宽不会影响延迟减小。想要使带宽更宽很容易, 如可以并排铺设光纤, 以成倍增加带宽, 但却无法影响延迟减小。要想使延迟减少, 需要改善操作系统、网络接口和协议软件。不过, 即使上述三个方面都得到有效改善, 但如果瓶颈是传输时间, 那么延迟也不会减小。
(6) 避免使用过多的超时机制。定时器是网络必需的, 但也注意尽量少用, 并且应使超时机制用得最少[5]。当定时器超时后, 一般会重复某个动作。如果确实有必要重复该动作, 那无可厚非, 但如果是不必要的重复, 那就是一种浪费。避免额外工作的方法是使定时器的时间在原先的时间设置基础上再久一点。定时器经过很长时间还未超时, 只是对一个未必可能发生TPDU丢失事件的连接增加了少量额外的延迟;而定时器在它还没有用尽宝贵的CPU时间时就超时了, 不仅浪费带宽, 而且还会无故给很多路由器增加额外负担[6]。
4 结语
本文通过采取测定网络性能的措施, 探讨为改善网络性能目的时应注意的要点, 同时提出测定网络性能并不能替代对网络系统的良好设计, 并指出了设计性能良好的网络系统应该遵循的基本要求。
参考文献
[1]王江平.计算机网络管理系统及应用[J].南京晓庄学院学报, 2002 (4) :88-92.
[2]伍作文, 李仁发, 徐成.支持TCP/IP协议的嵌入式系统结构设计[C].2002年全国计算机体系结构学术会议, 2002.
[3]周干民.8位微处理器与IIC总线接口软核的设计与研究[D].合肥:合肥工业大学, 2001.
[4]欧阳伟.CORBA中间件协议层优化研究[D].长沙:中南大学, 2009.
[5]闫薇, 杨愚鲁.关于NOW群集系统的高效通信子系统的分析[C].2001年全国开放式分布与并行计算学术会议, 2001.
网络性能指标及测试方法 第4篇
1、网络可用性。
网络可用性是指网络是否能正常通信,路径是否可达,可以在终端电脑上用“ping”命令来测试网络的连通性。例如:ping 10.48.128.1,这条命令测试的是从该终端电脑向目的10.48.128.1发送icmp echo request,并等待接收icmp echo reply来判断目的是否可达。ping命令的目的可以是IP地址,也可以是域名,例如ping oa.shtl.com.cn,需要注意的是如果目的是域名,则需要一个可用的DNS去解析该域名。
Ping 命令有非常丰富的命令选项,比如-c 可以指定发送 echo request 的个数,-l 可以指定每次发送的 ping 包大小,-t 可以不停的向目的发送echo request。通常ping命令的返回结果常见有以下几种
Reply from 10.48.128.1: bytes=32 time=1ms TTL=50 该结果表示收到10.48.128.1的reply包,说明目的网络可达。Request timed out 请求超时,该结果表示没有收到reply包,说明存在目的网络的路由,但网络不通。Destination host Unreachable 目的主机不可达,该结果表示没有到目的主机的路由。Unknown host 不可知的主机,该结果表示无法解析域名为IP地址。Hardware error 硬件错误,该结果表示硬件故障。
通常情况下,使用-t参数长时间测试时,当网络性能良好时,不会出现丢包现象。如果出现是出现丢包,甚至是丢包严重时,则说明了网络中某些地方存在着问题。
2、网络响应时间
网络响应时间是指终端发起到远端的连接请求,到收到远端的回复所需要的时间,也可以用ping命令来测试网络的响应时间,Ping 命令的 echo request/reply 一次往返所花费时间就是响应时间。有很多因素会影响到响应时间,如网络的负荷,网络主机的负荷,网络的带宽,网络设备的负荷等等。
在网络的可用性良好的时候,使用ping命令测试时,返回结果: Reply from 10.48.128.1: bytes=32 time=1ms TTL=50 结果说明该终端到远端10.48.128.1的响应时间为1ms Reply from 220.181.111.86: bytes=32 time=26ms TTL=54 结果说明该终端到远端220.181.111.86的响应时间为26ms 对比两个结果,可以看出该终端到10.48.128.1这个主机的响应时间要比到220.181.111.86这个主机的响应时间小,从而可以反映出那个网络的性能更加良好。
3、网络抖动。
网络抖动是指分组延迟的变化程度。如果网络发生拥塞,排队延迟将影响端到端的延迟,并导致通过同一连接传输的分组延迟各不相同,而抖动,就是用来描述这样一延迟变化的程度。
利用ping命令加参数-t可以观察出网络抖动的情况: C:>ping baidu.com –t Pinging baidu.com [123.125.114.144] with 32 bytes of data Reply from 123.125.114.144: bytes=32 time=54ms TTL=50 Reply from 123.125.114.144: bytes=32 time=48ms TTL=50 Reply from 123.125.114.144: bytes=32 time=50ms TTL=50 Reply from 123.125.114.144: bytes=32 time=48ms TTL=50 Reply from 123.125.114.144: bytes=32 time=49ms TTL=50 Reply from 123.125.114.144: bytes=32 time=47ms TTL=50 Reply from 123.125.114.144: bytes=32 time=47ms TTL=50 Reply from 123.125.114.144: bytes=32 time=48ms TTL=50 Reply from 123.125.114.144: bytes=32 time=51ms TTL=50 Reply from 123.125.114.144: bytes=32 time=47ms TTL=50 Reply from 123.125.114.144: bytes=32 time=48ms TTL=50 Reply from 123.125.114.144: bytes=32 time=52ms TTL=50 通过结果可以看出终端到123.125.114.144这个目的主机的网络响应时间大概均为50ms左右,网络非常平稳,抖动非常少,说明了网络性能较好。
若是过程中出现大延迟的数据包,甚至偶尔的丢包现象,则说明该网络抖动程度较大,网络的性能不佳。
4、网络吞吐量
吞吐量表示在单位时间内通过某个网络(或信道、接口)的数据量。吞吐量受网络的带宽或网络的额定速率的限制。
可以在交换机上通过show interface summary命令查看该交换机端口的数据流量。
ZHL_6509A#sh int summary
*: interface is up IHQ: pkts in input hold queue
IQD: pkts dropped from input queue OHQ: pkts in output hold queue
OQD: pkts dropped from output queue RXBS: rx rate(bits/sec)
RXPS: rx rate(pkts/sec)TXBS: tx rate(bits/sec)
TXPS: tx rate(pkts/sec)TRTL: throttle count
Interface
IHQ
IQD OHQ
OQD RXBS RXPS TXBS TXPS TRTL-----------* GigabitEthernet2/1
0
0
0
0 171848000 30276 152596000 32948
0 * GigabitEthernet2/2
0
0
0
0 1469000 648
0
0
0 * GigabitEthernet2/3
0
0
0
0 275000 221 1666000 758
0 * GigabitEthernet2/4
0
0
0 10830
0
0 449000 485
0 * GigabitEthernet2/5
0
0
0 10348
0
0 448000 485
0 * GigabitEthernet2/6
0
0
0 11061
0
0 470000 490
0 * GigabitEthernet2/7
0
0
0 10833
0
0 470000 490
0 通过该命令,可以看出当前端口每秒钟通过的数据量,例如GigabitEthernet2/1接收数据量为171848000bits/S,换算后为171.8Mbits/S,发送的数据量为152596000bits/S,换算后为152.6Mbits/S,该数据反映了当前网络的使用和负载情况,当网络中的吞吐量非常大的时候,可能会引起交换机压力大、CPU占用率高,及网络阻塞的现象。因此,需要对平时正常状态下的网络吞吐量的大概范围有一个了解,当出现网络缓慢、阻塞时,通过对比能及时发现那些接口的吞吐量过大,从而判断解决问题。
负载均衡提高应用系统性能 第5篇
摘要:本文讨论了应用系统的性能问题,介绍了服务器负载均衡的概念和方式,并详细阐述了硬件负载均衡的算法、优点。在文中,以一个案例为例描述了如何通过硬件负载均衡提高应用系统性能,以及消除应用系统服务器的单点故障,从而增强应用系统的稳定性和可靠性。
关键词:负载均衡 服务器 性能
中图分类号:TP393.01 文献标识码:A 文章编号:1673-8454(2009)11-0017-03
一、引言
信息化、数字化、网络化已经普及到社会的各个行业。在校园里,选课,视频课件点播、回放,消息发布等已经成为校园网平台上的重要应用;在医院里,让患者自己通过网络查询检验、检查结果已经开始应用;在银行里,网上银行已经逐渐被人们所接受;在政府、在各个服务机构,越来越多的业务已经开始在网络上运行,给人们的学习、工作和日常生活带来了很大的方便。但是这些系统在运行一段时间后都会暴露出性能问题,严重的会导致业务系统不可用。如:校园内的系统,其主要有两个明显的特点:一是用户数量大,用户主体是学生,每个学生都要访问相应的业务系统,获取相关的学习和上课信息;二是访问时间集中,开学的一周内,所有的学生都要在网上选课,查看本学期相关的信息,在学期末,又要上网集中在一周内查询考试成绩。在这两个特点的影响下,每个学期,校园网平台上的各个应用大部分时间平稳运行,而在几个固定的时间段会出现访问高峰,而恰恰就是这个访问的高峰常常造成各个应用系统性能低下,速度慢,甚至出现宕机的情况,影响了各项正常的业务;再如:医院为患者提供检验、检查结果查询的系统,每天上午9-11点会出现一个访问高峰,而其他时间段访问量不高,而就是每天上午的这两个小时,很多医院遭到患者对查询服务的不满。各个企事业单位为了保证自己的各个应用系统持续平稳运行,必须要采取相应的措施和手段。[1][2]
二、负载均衡
提高应用系统性能最常用到的方法是提高服务器的硬件配置,这种做法在一定程度上可以提高应用系统的性能,但是不能从根本上解决问题。事实证明,增加服务器的CPU、内存的数量,其性能不会随着线性增长,而且服务器的硬件配置也不能无限制的扩充和提高。这种方法常常应用在中小型的应用系统中。
1.什么是负载均衡
负载均衡就是由多台服务器以对称的方式组成一个服务器集合,每台服务器都具有等价的地位,都可以单独对外提供服务而无需其他服务器的辅助。通过某种负载分担的算法,将外部发送来的请求均匀分配到对称结构中的某一台服务器上,而接收到请求的服务器独立地回应客户的请求。完成负载均衡的几台服务器可以是相同软硬件配置,也可以是不同的软硬件配置,甚至操作系统也可以不一致。这使得管理部门可以利用几台低配置的服务器实现高性能的应用系统,而不必购买价格昂贵的高配置的服务器。负载均衡可以分为软件负载均衡和硬件负载均衡。[3][4]
2.软件负载均衡
利用专门的应用软件在多台服务器之间做负载均衡。软件负载均衡的优点是实现简单,投入成本低。缺点如下:
第一:由于实现负载均衡功能的软件要安装到业务服务器上,所以软件自身要占用一部分性能已经低下的服务器的资源。
第二:部分实现负载均衡功能的软件对负载均衡的服务器平台有局限性。
第三:软件实现的负载均衡,流量分摊算法少,有的时候流量分摊的算法不适合实际的环境。
第四:存在兼容性的问题。在生产系统的服务器上面安装实现负载均衡功能的软件,软件的兼容性无法保障,没有经过测试就安装,是一种冒险的行为。
所以,在实际中,软件负载均衡通常用于小型应用系统,或者资金不充足的企事业单位。而大中型系统中通常使用硬件负载均衡。
3.硬件负载均衡
硬件负载均衡是利用专门的硬件设备实现多台服务器之间的负载均衡。在实现过程中,无需改变现有的网络环境,不在服务器上安装任何软件,所有的操作全部在硬件负载均衡设备上配置和实现。
(1)算法[5]
不同的应用环境,要使用不同的负载均衡算法与之相匹配,才能充分提高整个应用系统的性能。常用的负载均衡算法如下:
算法1:轮询
将外部的请求均匀地分摊到各个服务器上面,如:有3台服务器实现负载均衡,那么3台服务器接受处理的请求数量为1∶1∶1。这种算法适用于做负载均衡的几台服务器硬件配置相同,他们可以平均分摊所有流量。
算法2:比率
将外部请求安装预先设定好的比率分摊到各个负载均衡的服务器上,如:有3台服务器做负载均衡,设定他们接收处理请求的比率为1∶2∶3,那么每台服务器处理的请求是不同的。这种算法适用于做负载均衡的几台服务器硬件配置不同,按照他们的处理能力,设定比率,从而使得性能高低不同的服务器都能够平稳运行,不会出现个别服务器负载过重,而另外的服务器负载过少的情况。
算法3:最少连接数
负载均衡的硬件设备会不断地检测做负载均衡的几台服务器上的连接数的数量,将新的请求转发到连接数最少的服务器上面。这种算法适用于应用为长连接的情况。
算法4:最快响应时间
负载均衡的硬件设备会不断地检测做负载均衡的几台服务器中,哪台服务器响应速度最快,从而将请求转发到响应时间最快的服务器上面。这种算法适用于每台做负载均衡的服务器都能够在很短的时间内处理完请求,没有性能的问题。
(2)故障检查方法[6]
负载均衡设备会不断地检测负载均衡服务器的状态,保证请求全部转发到正常工作状态的服务器上,而不转发到故障服务器上。常用的检测方法如下:
方法1:ping
ping是最直接的一种检测网络是否通畅的方法。负载均衡的硬件设备会不间断地ping做负载均衡的几台服务器,如果某台连续3次ping不通,则认为该服务器已经出现故障。
方法2:tcp open
负载均衡设备会模拟外部请求想做负载均衡的服务器发送请求,如果能够得到回应,表明服务器状态正常,反之,认为服务器出现故障。如:一个服务器提供Web服务,即负载均衡设备检查负载均衡服务器的80端口是否正常,如果正常,则表明服务器的服务正常,如果检测不到80端口的服务,那么认为该服务器上的Web服务已经中断。
(3)优点
1)容错
当负载均衡设备检测到某台负载均衡服务器出现故障时,会自动旁路掉该服务器,新的请求将不再转发到该服务器上,从而实现了容错机制。容错机制是实现负载均衡的同时带来的好处,单凭一台高性能、高配置的服务器是实现不了的,也就是说,一台高配置的服务器存在单点故障,而负载均衡不但解决了整个业务系统的性能问题,而且消除了单点故障。
2)可扩展性
硬件负载均衡的扩展能力很强,若3台服务器性能不能满足需求,可以增加到4台或5台,甚至更多。
3)节省投资
只要有处理能力的服务器都可以加入到负载均衡的行列里,通过负载均衡技术利用一些过时的,配置很低的服务器提供高性能的服务。
4)平台无关性
做负载均衡的服务器与软硬件平台无关,只要基于TCP/IP协议就可以。
三、负载均衡的应用
在实际应用中,很多系统都可以通过负载均衡技术来提高整个系统的性能。如图1所示是硬件负载均衡典型的拓扑结构。
图1中,3台硬件配置相同的服务器通过硬件负载均衡器做负载均衡,下面通过服务器全部正常工作和部分服务器出现故障两种情况讨论负载均衡在实际中的应用。
1.服务器全部正常工作
来自于客户端的所有请求,先到达负载均衡器,负载均衡器根据预先设置的轮询算法,将所有的请求全部转发到3台服务器上,3台服务器接收处理请求数量的比率为1∶1∶1。
2.部分服务器出现故障
当负载均衡器检测到3台服务器中的Server1出现故障的时候,它会自动旁路掉出现故障的服务器,将来自于客户端的请求全部转发到Server2和Server3上。当Server1从故障恢复后,负载均衡器又会重新把请求分发给Server1、Server2和Server3上。
综上所述,3台服务器通过负载均衡后,性能提高了3倍,并且消除了应用系统中的单点故障,达到了为用户提供高质量、高性能服务的目的。
四、结束语
负载均衡技术在越来越多的应用系统中发挥着重要的作用,在提供高质量、高性能服务的同时,消除了网络应用系统中服务器的单点故障,节省了投资的成本,负载均衡技术已经成为网络应用系统中安全可靠的保障手段之一。
参考文献:
[1]金雷,谢立.应用系统中集群技术的实现[J].计算机应用研究,2003,20(1):88-91.
[2]马小星,吕建.分布式Web服务器技术综述[J].计算机科学,2002,29(1):7-12.
[3]刘爱洁.负载均衡技术浅析[R].北京:信息产业部北京邮电设计院第七届新技术论坛,2002.
[4]唐俊奇.负载均衡技术的三种实现方法[J].微电脑世界,2003(4):72-74.
[5]李树民.论服务器集群技术[J].互联网世界,2000(7):36-37.
动态卫星网络性能评估 第6篇
卫星通信的发展经历了由初期的单颗卫星,到结构简单的单层卫星网络,再到业务种类多样、传输性能可靠的天基综合信息网。多层、动态的综合卫星网已经成为目前世界各国研究卫星通信的热点课题。
在卫星网络设计中,通常综合考察时延、吞吐量、覆盖率等典型指标的仿真结果,直观地判断设计方案的优劣[1,2]。 然而, 这种评估方法受评价者经验、能力等主观因素影响较大,不能准确反映卫星网络的实际性能。
为方便研究,现建立了LEO/MEO双层动态卫星网络模型。提出了使用网络最大流问题对动态卫星网络流量进行评估的方法。使用分段函数计算动态卫星网络的最大流。使用STK[3]、Matlab软件进行仿真,以验证提出的评估方法。
1 系统模型与评价准则
1.1 系统模型
在动态卫星网络设计中,通常综合考虑卫星数量尽可能少、覆盖范围尽可能广、用户仰角尽可能大、信号的传输延时尽可能低、单位时间传输数据量尽可能多、星际链路干扰可控等因素。
根据上述卫星网络的应用要求,近年来许多学者提出了很多不同的卫星星座设计方法,比较典型的星座有:δ(Walker)星座、Rosette(玫瑰)星座、σ星座以及Ω星座等。目前已建成并在稳定运行的卫星通信网大都采用了上述星座设计方案, 其中比较有代表性的主要包括采用了近极轨道星座的Iridium系统以及采用了δ星座的全球星系统等。
以上都是较为简单的单层布星的星座系统。随着通信需求的增加,这些单层的星座系统已经逐渐不能满足应用需要。本文所要研究的LEO/MEO双层动态卫星网络[4,5,6,7,8],要分别在低轨和中轨两个不同的轨道高度同时布星,并建立中轨卫星、低轨卫星间的中继链路,使得地面用户、低轨卫星、中轨卫星形成三维立体的、动态的卫星通信网。
由于LEO卫星按照低轨侦察卫星的一般惯例采用太阳轨道卫星。参照美国环境气象卫星NOAA-N系列太阳轨道卫星参数,建立18颗低轨侦察卫星。
MEO卫星的设计采用Rosette(玫瑰)星座方案。玫瑰星座可由5个主要参数来表征[9]:
(1)星座卫星总数N;
(2)轨道面数P;
(3)相位因子F;
(4)轨道高度h;
(5)轨道倾角i。
根据这些参数,可计算出星座中每个轨道面包含的卫星数量S、同轨道面内卫星间隔角度Δω、升交点间隔ΔΩ以及相邻轨道卫星间的初始相位差Δωf。
这样的星座系统对F,h,i进行了优化设计,保证N最小,并提供均匀的对地覆盖,以满足模型的各项要求。
假设动态卫星网络共存在3种链路:
(1)LML(LEO-MEOLinks)LEO与MEO间的中继链路,主要作用是当LEO对地不可见时,MEO可将数据中转传回地面用户;
(2)MML(MEO-MEO Links)MEO之间的中继链路,主要作用是数据的中继传输;
(3)UDL(User Data Links)地面用户与LEO、MEO间的链路,主要作用是地面用户与各类卫星之间的通信。
1.1.1 侦察卫星模型设计
覆盖要求:覆盖全球。
LEO卫星依据现有的美国环境气象卫星-NOAA/POES的轨道参数选取。“NOAA-N系列卫星主要由两颗太阳轨道卫星组成,分别运行于上午、下午轨道,覆盖全球。主要作用是监视全球的气象信息,测量大气温度、湿度、臭氧和云层, 跟踪气象图形,。”[11] 截止目前,已发射18颗卫星。该系统所有卫星参数均符合本文中对低轨侦察卫星的要求,故选用该系统为模型。
1.1.2 中继卫星模型设计
覆盖要求:全球覆盖。
按照玫瑰星座的设计要求,选取了4颗轨道高度为10 000 km的中继卫星,分布在轨道倾角为45°和135°的2个轨道面,每个轨道面均匀分布2颗。
图1为18颗LEO侦查卫星和4颗MEO中继卫星组网的系统模型空间图。系统还包括我国境内的2个境内地面接收站。
1.2 评价准则
对于LEO/MEO动态卫星网络的性能评价,主要从系统覆盖率、卫星对地仰角特性以及卫星网络的容量等三个方面进行研究。
对地覆盖率是评价卫星网络性能的重要指标。LEO由于轨道高度只有1 000 km左右,对地覆盖面积较小,通常需要很多颗卫星同时工作,才能达到覆盖全球的要求,如铱星系统包含卫星66颗。MEO的轨道高度在10 000 km左右,覆盖区比LEO卫星大很多,覆盖目标区域所需的卫星数量比LEO卫星要少很多,因此选用MEO作为中继卫星。综合考量LEO/MEO卫星网络的对地覆盖率可有效减少卫星数量,降低系统投资,以更低的成本获得更大的收益。
卫星对地仰角特性对卫星网络来说是重要的评价指标,大仰角可缓解多径衰落和遮蔽问题,提高链路质量。但在取得大仰角的同时,也意味着卫星的覆盖半径相对较小,所以要综合考量卫星网络的对地覆盖率和对地仰角特性,取得最优配比[12,13]。
对于系统覆盖率,卫星对地仰角特性问题可利用STK软件建模仿真进行计算。
动态卫星网络的容量问题是需要讨论的重点。在这里使用网络最大流问题来对动态卫星网络中数据的起点和终点之间最多能传输多少流量进行建模和求解。
2 计算方法
最大流问题的提出是从20世纪60年代开始的,经过这些年的研究塔索,人们积累了大量的经验,给出了很多求解问题的算法。如Ford-Fulkson增截轨算法、Dinic阻塞流算法、标号法以及Edmonds-Karp算法等[14] 。
最大流问题一般有如下要求[15]:
(1)网络中必须有一个源(起点)VS和一个汇(终点)VT,应用到网络求解中,一般采用增加虚拟源和汇的方式使多节点网络满足要求;
(2)网络中的数据流是有向的;
(3)对于网络中的每个节点(除源和汇),最大流量都是有限制的,且流入和流出的总流量相等。
由此,最大流问题可描述为:
优化目标:max f
约束条件:
网络最大流问题一般用来解决静态网络的流量问题。对于卫星动态网络的最大流量问题,可以将其建模为时间演化图(Time Evolving Graph,TEG),将各个演化子图通过叠加的方式生成一个聚合图。这样动态网络的任意两个点Vi和Vj只要在0~t时隙内有过连接,那么在聚合图中的fij就不为0。通过这种方式可以将求延时容忍的动态卫星网络的容量可以转化为求聚合图的最大流量问题[16,17]。
如图2所示:(a)为各时刻网络节点连接关系,(b)为聚合后的网络连接状态。
基于卫星网络的特点,为方便求解,我们假设LEO、MEO、地面站的传输和接收能力无限,可将模型简化为所有IMLs、MLLs、UDLs之间可见即可传输。使用STK软件可计算一天中任意时刻网络所有节点间的连接关系。对于任意时刻网络所有节点之间的链接关系即可转化为转化为网络多个状态的组合使用最大流问题求解。
在实际计算中对任意时刻采样求解的方法过于繁琐,采样点多,计算复杂。由于星间链路的建立依据可见即可传输的原则,各类链路的通断时间是可以精确计算的。现采用分段函数的方法,找出各类链路的通断时间点,在各类链路联通的时间点进行采样,可大大提高计算效率。
3 仿真验证
由于星间可见性指LEO对MEO,MEO之间以及MEO、LEO与地面站的可见性,假设LEO、MEO、地面站的传输和接收能力无限(可见即可传输)。
3.1 系统覆盖率
图3为MEO卫星对地覆盖特性,由图可知,本文选取的MEO星座可覆盖纬度位于-90°到90°之间的任何区域。[Latitude Bounds Coverage Min.Latitude:-90.000 0(deg),Max.Latitude:90.000 0(deg)]
图4为LEO卫星对地覆盖特性,由图可知,选取的LEO星座星座可覆盖纬度为-90°到90°之间的任何区域,其中:对两极地区的覆盖可达到全天候,对赤道地区的覆盖可达到60%以上。
3.2 卫星对地仰角特性
图5为MEO卫星对地仰角特性,由图可知, 本卫星系统中的MEO卫星对地仰角基本集中在15°至75°之间,接入较容易,符合设计要求。
图6为LEO卫星对地仰角特性,由图可知,本卫星系统中的LEO卫星对地仰角基本集中在10°至80°之间,接入较容易,符合设计要求。
3.3 网络容量
在SKT中建立上述模型,计算得出如下结果:
如图7表示IMLs、MLLs、UDLs建链时刻表,其中:横坐标表示时间,共计1 d,24 h;纵坐标表示侦查卫星、中继卫星、地面站之间的连接关系,只要某一时刻上述三类节点间可见,即可进行通信。根据图7,可精确计算出网络各节点的建链开始时间、结束时间,利用分段函数对每个建链的开始时间进行采样,要计算网络最大流可采用下列2种方法:
式(1)表示将所有采样结果相加,再对时间求加权平均,计算结果代表零容忍网络的网络最大流。
式(2)表示将每个采样点对时间求加权平均,再计算网络最大流,计算结果代表延迟容忍网络的网络最大流。
以如下简化的三点网络说明两式的区别:
网络的通断状态如图9所示。
由式①可得该三点网络最大流:
其物理意义表示各不同采样时刻, 网络流量对时间的加权平均。
由式②可得该三点网络最大流:
其物理意义表示各不同采样状态对时间的加权平均,再求出网络最大流。
由上述原理分别计算卫星网络IMLs、MLLs、UDLs建链的网络最大流,结果如下:
wf1=37.719 4;wf2=42.659 8。
对于本文建立的动态卫星网络模型来说,时延容忍网络的流量性能比零容忍网络的流量性能稍好。
如图10表示UDLs建链时刻表,表示中继卫星和侦查卫星直接对地面站的连接关系。由上述方法求得UDLs网络最大流:wf3=1.156 0。
计算结果表明,LEO/MEO双层动态卫星网络的网络传输性能比单层LEO网络的网络传输性能高30倍以上,可大大提高网络传输效率;延迟容忍网络传输性能比零容忍网络传输性能略好。
4 小结
本文使用网络最大流问题对建立的LEO/MEO 双层动态卫星网络流量进行评估,并将分析的结果与采用STK进行仿真验证的结果进行比较,可以看出, 在LEO/MEO双层网络中使用MEO作为中继卫星可大大提高LEO卫星的传输效率,提高整个系统的性能。
如何构建高性能的网络隔离系统 第7篇
随着因特网的迅猛发展,网络正面临着计算机病毒、拒绝服务攻击、信息盗窃等安全威胁。尽管如此,人们仍希望将内部网络与外界相连,并尽量使外部能对内部网络信息实现更加方便的访问,这进一步增加了网络的不安全性。一种自然的想法是将内部网络与外部网络彻底断开,这样外部攻击者将失去访问内部网络数据的任何途径。不幸的是,这种做法与计算机网络共享信息和设备资源的初衷相违背。事实上,人们想拼命保护的某些信息资源,恰恰正是需要和外部世界中某些伙伴共享的资源。因此,必须保持内部网络与外部世界相连接。人们一直在研究一种安全的解决方案,该方案在可以保持内部网络与外部网断开,但又同时能实现与外部连接。物理隔离就是这样一种网络安全技术,它既能保持内外网络的物理断开,又能保持内外网络的逻辑连接,实现适度的数据交换。本文设计了一种基于PCI扩展ROM技术的单硬盘物理隔离卡。该卡将网络终端计算机分为安全状态(对应内网)和公共状态(对应外网),相应地将终端计算机的硬盘划分为相互隔离的两个数据区,即虚拟的内网硬盘和外网硬盘,并在硬件层物理隔离网络、软件层逻辑隔离硬盘数据区,在确保较高安全性的同时,节约了成本,简化了用户的操作。
2 硬件实现原理
由于本设计基于PCI扩展ROM技术的单硬盘物理隔离卡。为了便于后面设计,我们前面先对硬盘的分区和数据结构进行分析。一块新的硬盘一般要经过低级格式化、分区和高级格式化建立起完整的数据结构后,才能正常使用。低级格式化的目的是将盘面划分成磁道、扇区和柱面。高级格式化的目的是在分区内建立分区引导记录、文件分配表、文件目录表和数据区。
硬盘的数据结构主要由主引导记录、主分区表和分区表链、分区引导记录、文件分配表、文件目录表和数据区组成。下面主要讨论与单硬盘隔离紧密相关的分区表结构及分区表链。
在主分区和逻辑分区的首扇区中,都存储着一个64字节的分区表。分区表共有四个分区表项,每个表项占16个字节。各分区表项的结构见表1。在分区表的四个表项中,一般只使用前两个,后两个置为0。第一个分区表项记录本分区的情况,包括分区的ID、起始和结束地址、分区的大小等。第二个分区表项记录后继分区的情况,且第二个分区表项中的文件系统ID值为05H或0FH。通过第二个分区表项,可以很容易地确定后继逻辑分区的位置和大小。注意:CHS(Cylinder、Head、Sector)扇区寻址方式只适用于8.4GB以下的硬盘,超过8.4GB的硬盘须采用逻辑块寻址方式(LBA,Logical Block Address)进行寻址。
主分区表和各个逻辑分区的分区表通过上述方式构成了一个分区表链,这个分区表链是硬盘各个分区关联的纽带,也是单硬盘隔离方案的理论基础。图1给出了一个包含四个分区的分区表链的示意图。需要注意的是主分区表第二个表项给出的是扩展分区的相关信息,而扩展分区实际不是一个真正的分区,它只是逻辑分区的一个链接指针。
四个分区中C为主分区,扩展分区中包含了D、E、F三个逻辑分区。图中第一项的c表示主分区C的第一个分区表项,指向分区C的分区引导记录CB,c'表示第二个分区表项,指向逻辑分区D的起始扇区(即D盘分区表所在的扇区),后面的链接情况类似。最后一个逻辑分区F的第二个分区表项为空,是分区表链的结束标志。操作系统根据这个分区表链以及各个分区的文件分配表来管理和寻址硬盘上的数据。需要说明的是,上图旨在说明分区表链的逻辑关系,并不表示分区表项c和c'与分区引导记录CB在存储结构上相邻。
3 隔离系统设计
单硬盘物理隔离系统中只配置一块硬盘,用户根据需求将硬盘分成公共区和安全区两个相互隔离的数据区间,对应公共态和安全态。两个数据区各自安装自己的操作系统、应用软件及数据文件,并采用切换硬盘主分区表和分区表链的方法实现两个数据区的隔离。而内外网络采用物理的方式进行隔离。
3.1 硬件设计
如图2所示,单硬盘物理隔离卡由PCI接口芯片、系统配置芯片、扩展ROM芯片以及物理隔离模块四个部分组成。PCI接口芯片作为PCI总线与本地总线之间的桥,连接PCI扩展卡的本地端逻辑到PCI总线上,并将PCI命令(例如读写某个寄存器、内存、I/O端口)翻译到本地端。综合考虑多方面因素,选用CH365作为PCI接口芯片;系统配置芯片用于保存硬盘公共区和安全区的相关参数;扩展ROM模块主要用于存储隔离卡的控制程序,该程序根据用户的需要控制物理隔离电路完成内外网的切换,实现网络的物理隔离与锁定,同时实现硬盘不同数据区的逻辑隔离。由于控制程序工作于扩展ROM方式,因此网络和硬盘数据区的状态只有在开机或重启时才能更改,有效地防止了终端信息串网。物理隔离逻辑由一块高速CPLD实现。
3.2 软件实现
由于隔离卡控制程序存放于卡上的扩展ROM中,只要扩展ROM中的代码符合PCI扩展ROM规范[2],则在计算机开机或重启时,在BIOS完成其所有检测工作之后、操作系统自举之前,BIOS自动将扩展ROM中的代码加载到内存运行。隔离卡控制程序流程如图3所示。
在计算机开机进行BIOS自检并完成物理隔离卡的初始化以后,控制程序获得计算机的控制权。首先,控制程序读取系统配置芯片中的标志位,并根据标志位和用户的选择对系统进行控制。在安装隔离卡或者用户对公共区和安全区重新分区时,多重引导区标志被置为无效,控制程序会显示一个如图4所示的“设置硬盘分区”界面供用户设定。控制程序根据用户设定的信息,建立硬盘的多重引导区,并存储在系统配置芯片中供控制程序调用。所谓多重引导区,是存储硬盘公共区和安全区参数的信息区,其数据结构如下:
MB_SECTOR_SIGDB'$CH365HI';多重引导信息扇区标志
MB_HD_SECTORSDB3FH;硬盘参数:每道扇区数
MB_HD_HEADSDB0FFH;硬盘参数:磁头数
MB_HD_CYLINDERS DW0001H;硬盘参数:柱面数
MB_TOTAL_PARTDB00H;安装前预置的可引导逻辑分区总数
MB_CHECK_SUMDB00H;校验和
MB_PUB_STARTDD00000000H;公共区起始扇区号
MB_PUB_LENGTHDD00000000H;公共区总扇区数
MB_PART_INFODB0AH*SIZE PART_INFORM DUP(00H);分区信息
其中MB_PART_INFO是公共区和安全区的分区表链信息,1-4项是公共区分区表链,5-8项是安全区分区表链。每条分区表链中主分区占两项,逻辑分区占两项。最后两个分区表项用于功能扩展。每个分区表项(PART_INFORM)的结构见表1。用户通过这样的设置,可引导控制程序将网络终端计算机的硬盘虚拟成内外网两个硬盘,每个虚拟硬盘都包括一个主分区和一个逻辑分区,并且建立各自独立的分区表链。
正常工作时,控制程序提供内外网选择界面供用户选择。若用户的选择与上一次相同,则直接锁定电路并对系统配置芯片进行写保护,之后启动对应状态的操作系统。若用户的选择与上一次不同,则要进行状态的切换。公共区和安全区分区表链的切换情况如图5所示。
当网络终端计算机切换到外网时,控制程序将系统配置芯片中存储的C的分区表写入硬盘0柱面0磁头1扇区偏移1BEH处(即硬盘主分区位置),建立公共区分区表链,同时将逻辑分区D的第二个分区表项置为空以切断安全区的分区表链,使得主引导记录加载公共区主分区中的分区引导记录。公共区中的操作系统启动以后,只能识别公共区的主分区和逻辑分区,安全区不可见,则无法对安全区进行操作。
当网络终端计算机切换到内网时,控制程序将硬盘主引导记录中原主分区C的分区表替换成逻辑分区E的分区表,并将E分区表第一个分区表项中的BOOT ID改为80H,使分区E成为主分区,建立以分区E、F为元素的安全区分区表链,同时切断公共区的分区表链,使得主引导记录加载安全区主分区中的分区引导记录。安全区中的操作系统启动以后,只能识别安全区的主分区和逻辑分区,公共区不可见,则无法对公共区进行操作。通过这两个独立的分区表链的切换,就可以实现硬盘公共区和安全区的逻辑隔离。
4 结束语
本文设计了一种基于PCI扩展ROM技术的单硬盘物理隔离卡。该卡将网络终端计算机分为安全状态(对应内网)和公共状态(对应外网),相应地将终端计算机的硬盘划分为相互隔离的两个数据区,即虚拟的内网硬盘和外网硬盘,并在硬件层物理隔离网络、软件层逻辑隔离硬盘数据区,在确保较高安全性的同时,节约了成本,简化了用户的操作。
参考文献
[1]宋群生,宋亚琼.硬盘扇区读写技术——修复硬盘与恢复文件[M].机械工业出版社,2004.
[2]黄力.无线自组网中功率控制协议研究与实现[J].计算机工程与设计,2008,29(24):6227-6230.
网络系统性能 第8篇
1 连接池技术背景
1.1 JDBC
JDBC是一个规范,遵循JDBC接口规范,各个数据库厂家各自实现自己的驱动程序 (Driver) ,应用在获取数据库连接时,需要以URL的方式指定是那种类型的Driver,在获得特定的连接后,可按照固定的接口操作不同类型的数据库,如:分别获取Statement、执行SQL获得ResultSet等。在完成数据操作后,还要关闭所有涉及到的数据库资源。这虽然对应用程序的逻辑没有任何影响,但是关键的操作。如果搀和众多的if-else、exception,资源的管理也难免百密一疏。如同C中的内存泄漏问题,Java系统也同样会面临崩溃的厄运。所以数据库资源的管理依赖于应用系统本身,是不安全、不稳定的一种隐患。[1]
1.2 JDBC连接池
在标准JDBC对应用的接口中,并没有提供资源的管理方法。所以,缺省的资源管理由应用进程负责。虽然在JDBC规范中,多次提及资源的关闭/回收及其他的合理运用。但最稳妥的方式,还是为应用提供有效的管理手段。所以,JDBC为第三方应用服务器(Application Server)提供了一个由数据库厂家实现的管理标准接口:连接缓冲 (connection pooling) 。引入了连接池 (Connection Pool的概念,也就是以缓冲池的机制管理数据库的资源。
JDBC最常用的资源有三类:数据库连接 (Connection) ,会话声明 (Statement) ,结果集游标 (ResultSet) 。对Connection的管理,就是对数据库资源的管理。举个例子:如果想确定某个数据库连接 (Connection) 是否超时,则需要确定其(所有的)子Statement是否超时,同样,需要确定所有相关的ResultSet是否超时;在关闭Connection前,需要关闭所有相关的Statement和ResultSet。因此,连接池所起到的作用,不仅仅简单地管理Connection,还涉及到Statement和ResultSet。[2]
1.3 连接池与资源管理
连接池以缓冲池的机制在一定数量上限范围内控制管理Connection、Statement和ResultSet。任何数据库的资源是有限的,如果被耗尽,则无法获得更多的数据服务。在大多数情况下,资源的耗尽不是由于应用的正常负载过高,而是程序原因。在实际工作中,数据资源往往是瓶颈资源,不同的应用都会访问同一数据源。其中某个应用耗尽了数据库资源后,意味其他的应用也无法正常运行。因此,ConnectionPool的第一个任务:限制每个应用或系统可以拥有的最大资源,也就是确定连接池的大小 (PoolSize) 。ConnectionPool的第二个任务:在连接池的大小 (PoolSize) 范围内,最大限度地使用资源,缩短数据库访问的使用周期。许多数据库中,连接(Connection)并不是资源的最小单元,控制Statement资源比Connection更重要。[3]每申请一个连接(Connection)会在物理网络(如TCP/IP网络)上建立一个用于通讯的连接,在此连接上还可以申请一定数量的Statement。同一连接可提供的活跃Statement数量可以达到几百。在节约网络资源的同时,缩短了每次会话周期(物理连接的建立是个费时的操作)。但在一般的应用中,如果有10个程序调用,则会产生10次物理连接,每个Statement单独占用一个物理连接,这是极大的资源浪费。ConnectionPool可以解决这个问题,让几十、几百个Statement只占用同一个物理连接,发挥数据库原有的优点。
2 连接池的实现
传统的数据库连接方式中,一个数据库连接对象均对应一个物理数据库连接,数据库连接的建立以及关闭对系统而言是耗费系统资源的操作,在多层结构的应用程序环境中对系统的性能影响尤为明显。数据库连接池是运行在后台的而且对应用程序的编码没有任何的影响。此中状况存在的前提是应用程序必须通过DataSource对象(一个实现javax.sql.DataSource接口的实例)的方式代替原有通过DriverManager类来获得数据库连接的方式。一个实现javax.sql.DataSource接口的类可以支持也可以不支持数据库连接池,但是两者获得数据库连接的代码基本是相同的。代码如下:Context ctx=new InitialContext () ;DataSource ds= (DataSource) ctx lookup ("jdbc/openbase") ;一个DataSource对象通常注册在JNDI命名服务上,应用程序可以通过标准的方式获得到注册在JNDI服务上的DataSource对象。如果当前DataSource不支持数据库连接池,应用程序将获得一个和物理数据库连接对应的Connection对象。而如果当前的DataSource对象支持数据库连接池,应用程序自动获得重用的数据库连接而不用创建新的数据库连接。重用的数据库连接和新建立连接的数据库连接在使用上没有任何不同。应用程序可以通过重用的连接正常的对数据库进行了访问和操作。Connection con=ds.getConnection ("User", "Pwd") ;相关数据库的操作:con.close () ;当关闭数据连接后,当前使用的数据库连接将不会被物理关闭,而是放回到数据库连接池中进行重用。
3 在典型三层环境中具体调用流程
JDBC规范中提供了一个支持数据库连接池的框架,这个框架仅仅规定了如何支持连接池的实现,而对连接池的具体实现并没有做相关的规定。在一个典型的三层环境中,数据库连接池实现层次由特定数据库厂商的JDBC Driver开发人员提供连接池支持,而特定Application Server提供连接池实现的情况比较复杂,其它的实现层次均可视为其简化情况的一种。下面将针对这种情况进行说明。在这个框架主要有两个用户角色存在,它们分别是:特定数据库厂商的JDBC Driver开发人员,简称为Driver Vendor,特定Application Server中连接池开发人员,简称为Pooling Vendor。
当应用程序通过调用DataSource.getConnection () 得到一个数据库连接。Pooling Vendor实现的DataSource对象在连接池中进行查找看当前是否有有效的PooledConnection对象,如果连接池中有可用的PooledConnection,则进行检查,如果当前的PooledConnection可用则使用[4]。如果连接池中没有可用的PooledConnection对象,或者当前的ooledConnection对象不正确,那么Pooling Vendor调用ConnectionPoolDataSource.getPooledConnection类创建一个新的PooledConnection对象,这时由Driver Vendor实现的ConnectionPoolDataSource将会创建一个满足要求新的PooledConnection对象,并将其返回给连接池实现模块进行管理。然后,Pooling Vendor会调用PooledConnection.getConnection () 获得一个逻辑的Connection对象,这个逻辑的Connection对象将会象正常的Connection对象返回给应用程序。这个逻辑Connection对象实际上是连接池中PooledConnection对象的一个句柄,当连接池有效时,应用程序调用DataSource.getConnection () 就会得到这个句柄。简而言之,应用程序此时使用的Connection对象仅仅是其创建者PooledConnection对象的句柄而已。连接池实现模块调用PooledConnection.addConnectionEventListener () 将自己注册成为一个PooledConnection对象的监听者,当数据库连接需要重用或者关闭的时候连接池实现模块可以得到通告。当应用程序通过调用Connection.close () 来关闭数据库连接,这时一个ConnectionEvent对象被创建并被返回到连接池实现模块,连接池实现模块接受到此通告后,将PooledConnection对象返回到池中进行重用。这些过程中其它角色都不能访问PooledConnection.close () 方法,能访问这个方法的只有Pooling Vendor,它们使用这个方法对连接池中的对象进行操作,通过PooledConnection.close () 方法可以关闭物理数据库连接。
在多层结构的应用程序中通过连接池技术,应用程序可以减少对数据库重复连接操作,尤其在多层环境中多个客户端可以通过共享少量的物理数据库连接来满足系统需求,可以使教育学院网络系统的性能明显得到提高。
摘要:基于JDBC连接池技术, 通过实现逻辑连接和物理连接的多对一映射, 提升了网络系统性能。
关键词:JDBC,连接池,JSP对象
参考文献
[1]Marty Hall.Servlet与JSP核心技术[M].北京:人民邮电出版社, 2007.
[2]Duffey K, 王军.JSP站点设计编程指南[M].北京:电子工业出版社, 2007.
[3]柏亚军.JSP编程基础及应用实例集锦[M].北京:人民邮电出版社, 2007.
网络系统性能 第9篇
1 以太网缓存队列数学模型建立及优化
以太网在Vx Works系统传输过程中的延时包括介质的传输延时和以太网消息在缓存队列时的排队延时。消息数据帧在缓存队列中等待被发送时,如果在一次传输周期时间内未能及时发送出去,则需等待下一次传输周期到来时才能发送,这样会产生较大的排队延时。因此,如何减少排队延时是提高通信性能的关键。
通过对Vx Works链路层发送数据过程进行分析,建立与之对应的数学模型。如果上位机中数据帧的发送任务相互独立且发送次数没有限制,则由排队论可知发送数据帧的过程服从泊松分布。
设单位时间内进入缓存队列的平均数据帧个数(即数据帧的平均到达速率)为λ,则到达时间间隔服从参数为λ的负指数分布:
设以太网在单位时间内传输数据帧的平均个数(即以太网的平均传输速率)为μ(μ>λ),则传输强度为:
设数据帧排队长度为L,当L过大时,以太网处于繁忙期,可能使得缓存队尾的部分数据帧在一次传输周期内不能及时传输而被丢弃,需要等到下一次传输周期的到来,导致排队延时较长,影响了系统性能;当L过小时,以太网处于闲置期,其通讯利用率很低。如何找到合适的缓存队列长度,保证在Vx Works系统中,缓存队列中的所有数据帧都能成功发送,同时以太网的利用率最高是本文研究的核心问题。为方便问题研究,本文做出如下假设。
设在Vx Works系统中最佳缓存队列长度为L0,当数据帧排队长度L>L0时,不能及时发送而被丢弃的每个数据帧的损失代价为c1,当数据帧排队长度L<L0时,没有及时到达缓存队列而造成以太网闲置的每个数据帧的损失代价为c2.第n个进入队列的数据帧的概率为Pn.根据排队论建立生灭过程的平稳分布求解公式:
由公式(4)可知Pn服从几何分布,且Pi>Pj,∀i>j.当以太网处于繁忙期时,不能成功传输而被丢弃的平均数据帧数记为Nd,则:
当以太网处于闲置期时,没有进入队列而不能及时传输的平均数据帧数记为Np,则:
由于以太网繁忙与闲置都会给系统带来一定的损失,在一次传输周期中,兼顾这两方面的因素,将通信损失代价记为:
将公式(7)作为目标函数,确定该目标函数取最小值时对应L0的值,即损失代价最小时的最佳队列长度。即:
由公式(8)可得,使F(L0)取最小的L0应满足:
大多数情况下,数据帧在发送缓存队列中未能及时传输而被丢弃造成的损失对Vx Works系统性能的影响较大,即损失代价c1较大。而由于以太网闲置造成的损失对Vx Works系统性能的影响较小,即损失代价c2较小,所以满足c1≥c2.
2 需要注意的问题
为保证Vx Works系统网络传输的可靠性,缓解网络拥塞,提高网络传输性能,在实际应用中需要重点关注以下几点问题。:①合理设计网络拓扑结构,这是提高网络性能的关键。针对不同的节点采用不同的拓扑结构。对于某些重要节点,应设计成网状拓扑结构,增加冗余度。②在Vx Works系统中,通讯双方都应有信息发送缓冲队列和信息接收缓冲队列。对于发送方来说,可不必考虑接收方死时间,信息产生后立即将其填入信息发送队列,并且在填入过程中仍然响应其它信息的产生,相当于在操作层面实现了零通信死时间。使用缓冲队列实现了信息的流水线处理,降低了信息通信双方时间上的关联性,带来了操作人员层面的系统零死时间。同时,提高了CPU的利用率和软件的效率。③通过增加资源能力来避免拥塞。比如,增加网络带宽,将传输分配在多个路由器进行,也可使用备份路由器来增加网络带宽等。④在Vx Works系统中,通讯双方建立超时和确认重传机制,但超时太短将造成不必要的重传,既浪费主机的处理时间,又浪费网络资源。超时太长,又将导致数据的低吞吐量和短响应时间。理想化的超时值应正好等于一个数据包穿过网络到达目的地,接收方对它进行处理,然后发回的确认包又回到发送方的时间。合适的超时时间是实施超时重传的关键。⑤为加强网络拥塞控制,通讯双方各建立两个socket端口,一个作为数据通道专门用来传递数据信息,另一个用作监控通道,传递应答信号,监测网络的连通性,并监控通道负责管理和维护数据通道。在每个循环周期内,采样节点都会向服务器发起一次连接,服务器端收到采样节点的连接请求后,与其建立连接,然后向其发送命令信号。采样节点收到信号指令后,向服务器发送应答信号,服务器如果能在规定的时间内收到应答信号,则判定网络通畅,否则认为网络中断。如果某时刻网络出现断线,那么重新建立连接后,服务器会向采样节点发送重新连接指令,采样节点收到重新连接指令后,会关闭原有的数据传输socket,重新和服务器建立数据传输通道。上述做法使系统能够快速发现网络故障并作出响应,待网络故障排除后系统仍可正常运行。
3 结束语
本文对实时以太网在Vx Works系统数据链路层协议栈中发送数据帧的过程中建立数学模型,得出数据帧排队延时及丢包是影响Vx Works系统通信性能的主要因素。结合排队论推导出通讯损失代价最小的最佳消息缓存队列长度,从而对Vx Works系统缓冲队列的长度进行了优化,并给出了实现网络数据可靠传输的一些思路和建议,在一定程度上对改善在Vx Works系统中以太网的通讯性能具有指导意义。
摘要:为了提高Vx Works系统下网络传输的可靠性与实时性,用排队论对数据帧排队延时及丢包建立基于通信损失代价的数学模型,推导出最佳消息缓存队列长度,给出了提高网络传输的可靠性、缓解网络拥塞、优化网络传输性能的思路和方法。仿真结果表明,通过优化缓存队列的长度,减少了排队延时,提高了通讯性能,具有一定的工程应用价值。
关键词:VxWorks系统,网络建模,缓存队列,排队论
参考文献
[1]王刚,岳韶华,李延磊,等.网络化作战指挥控制系统软件体系结构研究[J].现代防御技术,2013(2).
[2]邱爱华,张涛,顾逸东.航天器可应用实时以太网分析[J].空间科学学报,2015(3).
[3]缪学勤.基于国际标准的十一种工业实时以太网体系结构研究(上)[J].仪器仪表标准化与计量,2009(3).
热泵热水器复合系统性能研究 第10篇
关键词:热泵热水器复合系统性能研究
0 引言
随着热泵热水器得到广泛的应用,系统性能的研究和复合系统的研究已成为热泵热水器研究的重点。
1 热泵热水器系统性能的研究
对热泵热水器的系统性能研究,目前采用的主要手段是试验研究。热泵热水器的系统性能指标主要是COP,排气温度、排气压力和压力比是影响系统压缩机性能和安全性的重要因素,也是间接表征系统性能的重要参数。国内外的研究工作主要是影响系统性能的因素、提高系统性能的措施等。
热泵热水器系统性能的影响因素很多,首先是出水温度,出水温度控制热泵热水器的冷凝温度,使热泵系统的工况处于动态变化过程。热泵热水器的COP值随出水温度升高呈下降趋势,出水温度也是压缩机排气温度和排气压力的主要影响因素。其次是环境温度,特别是环境温度较低时系统性能受到影响很大,环境温度降低时,热泵热水器的COP随之降低,系统的排气温度增高高,压力比变大。另一方面,在一定的换热面积下,环境温度降低时传热温差降低,有利于改善热泵热水器系统的低温运行性能。对变频热泵热水器而言,除了这些因素外,压缩机频率、电子膨胀阀开度、出水流量等对其系统性能有很大影响。
虽然热泵热水器可以在环境温度-7~45℃之间工作,且热泵热水器全年的平均性能系数较高,但在低温工况下,系统性能急速下降,因此,研究提高热泵热水器系统低温运行性能也是一个热门课题。有学者运用各种方法来提高系统低温运行时的性能,如研究闪蒸器、经济器和喷气增焓涡旋压缩机在热泵热水器系统的应用,发现能够改善系统低温运行性能,但存在喷气口回流现象和除霜时可能回液等问题。还有人采取吸气喷液的方法,来降低排气温度,而系统的性能有所降低。为了提高热泵热水器系统低温运行性能,两级压缩技术的应用也能获得很好的效果,武文彬等通过实验研究两级压缩空气源热泵热水器系统,结果表明该系统COP在-20℃时能够保持在1.5左右。可见,目前虽有些方法用于提高热泵热水器在低温工况的性能,但效果不明显,还有待进一步研究。
2 热泵热水器复合系统方面的研究
目前,热泵热水器复合系统主要有热泵热水器与空调复合系统、热泵热水器与太阳能复合系统、热泵热水器空调太阳能复合系统、采用各种热能梯级利用技术的热泵热水器系统等。
2.1 空调复合系统热泵热水器
热泵热水器与空调复合系统是能够供热水、制冷的空调系统,同时利用空调的冷凝热来制取热水。从节能的角度分析,这种系统具有非常优越的节能特点,与常规空调相比,其综合能源利用系数最大能够提高85%,有学者设计出的热泵热水器与空调复合系统,其COP可达到6.0。类似的复合系统在香港地区进行应用,使得当地的能源消耗量降低了50%左右。可见此类系统有很大的发展空间。目前,空调器部件基本已经定型,只要对尺寸、管路等略作改动,合理设计系统结构,进行优化和匹配系统供暖、制冷、制热水的性能,就能保证此类产品的产业化。
2.2 太阳能复合系统热泵热水器
太阳能作为一种清洁的可再生能源,成为目前世界各国积极开发研究的对象。太阳能热水器可以直接制取70~80℃的热水,在我国某些地区如长江以南的省份,已经得到了很好的应用。将热泵系统与太阳能热水器系统结合起来,能够有效的提高热泵热水器的性能。目前,热泵热水器与太阳能复合系统主要有直膨式和非直膨式,非直膨式包括串联式、并联式、混合式,此类复合系统的耗电量为电辅助加热太阳能热水器的54%,节能50%左右,运行费用也是各种热水器中最低的。这种复合系统具有多样化的产品类型,应用范围大,比如家庭用复合系统,太阳能热水器部分采取阳台壁挂式,具有安装方便等特点。在热泵热水器系统中嵌入太阳能热水系统,能够提高整个系统的性能。酒店、宾馆、游泳池等热水用量较大的场所,采用太阳能与热泵复合系统,经过合理的设计,可以达到很好的节能效果。
2.3 空调、太阳能复合系统热泵热水器
热泵热水器空调太阳能复合系统是一种集合空调器、太阳能、热泵热水器的复合系统,这种复合系统拥有多种工作模式,目前国内已经有了此类系统的专利,其试验结果表明此系统的制热年均性能系数可以比热泵热水器与空调复合系统提高25%以上。
2.4 热能梯级利用技术复合系统热泵热水器
采用各种热能梯级利用技术的热泵热水器复合系统,主要有空调冷凝热回收、浴室洗浴废弃热水热量回收等热回收技术和蓄热技术等技术手段。热泵热水器和空调复合系统一般都是采用空调冷凝热回收技术。对废弃热水热量的回收也是很有效的一种热回收技术,如通过合理的管路设计,能够用来回收浴室淋浴的废热水的热量,提高热泵热水器的能效,达到更加节能的效果。L.T. Wong等在整楼中设计和应用此类回收淋浴废弃热水的热泵热水器系统,能够从淋浴水中回收4%~15%的热量,可见将此类系统推广到大型澡堂等用热水量大的场所,能大幅度的提高节能效果。
恰当的利用蓄热技术和电力谷峰差,也能够很好的提高热泵热水器系统的性能和经济性,李建新等利用相变材料和谷电来蓄热,进而制取热水,具有显著的节能效果。还有人提出将热泵热水器和电热水器结合起来,既能提供饮用热水,又能提供洗浴热水。
3 结语
上述各种技术的应用,为各种热泵热水器产品的多样化提供了技术基础,为推广和扩大热泵热水器的应用提供了很大的帮助。
参考文献:
[1]刘强,樊水冲,何珊.喷气增焓涡旋压缩机在空气源热泵热水器中的应用[J].流体机械,2008,36(9):68-72.
[2]武文彬,王伟,金苏敏等.两级压缩空气源热泵热水器实验研究[J].制冷学报,2009,30(1): 35-38.
[3]L.T.Wong,K.W.Mui,Y.Guan. Shower water heat recovery in high-rise residential building of Hong Kong[J].Applied Energy,2010,87:703-709.
[4]李建新,王永川,陈光明.相变储热预热式热泵热水器系统性能研究[J].太阳能学报,2008,29(10):1230-1234.
民机油箱通气系统性能计算 第11篇
计算
计算内容
该型民机共有四个油箱, 对称分布于左右机翼, 左右机翼油箱对称布置, 每个油箱通过主通气管路和辅助通气管路连通到通气箱, 通气箱通过NACA型浸没式通气口与大气相连, 油箱内辅助通气管口连接有浮子活门。根据飞机不同飞行姿态和油箱内的油位状况, 将油箱通气系统工作状态划分为以下几种形式:
油箱油位较低且无较大侧向翻转时, 主通气管道与辅助通气管道都畅通情况下的油箱通气;
辅助通气管口连接的浮子活门关闭, 只有主通气管道畅通情况下的油箱通气;
较大侧滑或滚转时主通气管道堵塞, 只有辅助通气管道畅通情况下的油箱通气。
该型民机主通气管内径大于辅助通气管内径, 当两个油箱都只剩下辅助通气管畅通的情况是最严酷的, 所以本文只分析辅助通气管畅通时的通气性能。
对油箱通气系统性能具有重要影响的飞行状态, 包括快升 (最大爬升率爬升) 、陡升 (最大爬升梯度爬升) 、正常下滑和应急下滑四种状态。本文的仿真计算基于这四种状态下只有辅助通气管道畅通的情况下进行。
计算模型假设
根据该型民机油箱通气系统布局方式, 结合Flowmaster所提供的元件类型, 作出以下假设:
NACA型浸没式冲压口为专用部件, 将其简化为一阻力元件, 由于对气体介质来说, 其阻力系数随流量变化较小, 因此将其作为固定阻力系数元件来处理;
为了近似描述管路的流阻特征, 将管路的气体入口处理成一个突缩阻力元件, 管路气体出口处理成一个突扩阻力元件;
为了模拟发动机燃油消耗对油箱通气系统性能的影响, 将燃油箱处理成液气混合容器, 并设置流量源模拟发动机燃油消耗;
将每个油箱均等效为一个形状规则的柱状体;
所有管道的粗糙度设置为0.0025mm。
计算模型的建立
依据上述油箱通气系统计算模型假设, 在Flowmaster中建立的该机型油箱通气系统模型如图1 所示。其中快升和陡升两种状态油箱油量初始状态设置为满油量的60%, 正常下滑和应急下滑两种状态油箱油量初始状态设置为满油量的20%。每个通气支路上设置一个开关模拟元件, 控制该管路的通断。
计算结果
对于只有辅助通气管正常畅通的情况, 将两个主通气管路上的开关模拟元件设置为关闭状态, 将两个辅助通气管路上的开关模拟元件设置为打开状态。对只有辅助通气管正常畅通状态的通气性能进行仿真, 得到结果如下。
快升状态、陡升状态、正常下滑状态下, 分析结果分别如图2、图3、图4 所示。从图示可以看出, 当只有辅助通气管畅通时, 这三种状态下大气与Ⅲ号油箱、Ⅳ号油箱内空气压差均近似为0。
应急下滑状态下, 分析结果如图5 所示。从图示可以看出, 当只有辅助通气管畅通时, 应急下滑状态下大气压力与Ⅲ号油箱内空气压力的最大压差约为2.7k Pa, 大气压力与Ⅳ号油箱内空气压力的最大压差约为1.4k Pa。
结果分析
通过对不同飞行状态下油箱通气系统性能进行仿真分析, 分析结果表明:只有辅助通气管畅通时应急下滑状态下, 油箱内外压差出现最大值, 压差约为2.7k Pa, 小于结构强度要求的最大压差, 满足油箱设计要求。
结束语
本文针对某型民机, 以Flowmaster为分析平台, 经过假设优化, 建立油箱通气系统仿真分析模型, 然后计算得出在最严酷飞行状态下的油箱内外压差, 验证油箱通气系统的通气能力。计算结果表明, 该型民机油箱通气系统的设计可以满足供油的需求, 并保证油箱结构在上述工作状态下不损坏。本文为其他型号飞机油箱通气性能的计算提供了参考。







