当前位置:首页>管理咨询>云计算环境下的网络虚拟化如何解决端到端问题? 查询:
     
云计算环境下的网络虚拟化如何解决端到端问题?

网络虚拟化发展到现在牵涉的技术非常多,每种技术都可以单独写一篇文章来介绍,限于我的精力和知识水平只能给大家做个整体的简单介绍,不足之处还请各位批评指正。如果读者对某种技术感兴趣可以搜索相关资料做更详细的了解。

什么是网络虚拟化首先我们需要明确一个问题,什么是网络虚拟化,网络虚拟化简单来讲是指把逻辑网络从底层的物理网络分离开来。这个概念产生的比较久了,VLAN,VPN,VPLS等都可以归为网络虚拟化的技术。近年来,云计算的席卷设备管理系统界。几乎所有的设备管理系统基础构架都在朝着云的方向发展。在云计算的发展中,虚拟化技术一直是重要的推动因素。作为基础构架,服务器和存储的虚拟化已经发展的有声有色,而同作为基础构架的网络却还是一直沿用老的套路。在这种环境下,网络确实期待一次变革,使之更加符合云计算和互联网发展的需求。云计算的大环境下,网络虚拟化的定义没有变,但是其包含的内容却大大增加了。云计算环境下的网络虚拟化需要解决端到端的问题,笔者将其归纳为三个部分:(一)第一部分是服务器内部。随着越来越多的服务器被虚拟化,网络已经延伸到Hypervisor内部,网络通信的端已经从以前的服务器变成了运行在服务器中的虚拟机,数据包从虚拟机的虚拟网卡流出,通过Hypervisor内部的虚拟交换机,在经过服务器的物理网卡流出到上联交换机。在整个过程中,虚拟交换机,网卡的IO问题以及虚拟机的网络接入都是研究的重点。(二)第二部分是服务器到网络的连接。10Gb以太网和Infiniband等技术的发展使一根连接线上承载的带宽越来越高。为了简化,通过一种连接技术聚合互联网络和存储网络成为了一个趋势。(三)第三部分是网络交换,需要将物理网络和逻辑网络有效的分离,满足云计算多租户,按需服务的特性,同时具有高度的扩展性。下面我就围绕这三个方面来讲述网络虚拟化中的一些主要技术和标准。服务器内部IO虚拟化多个虚拟机共享服务器中的物理网卡,需要一种机制既能保证IO的效率,又要保证多个虚拟机对用物理网卡共享使用。IO虚拟化的出现就是为了解决这类问题。IO虚拟化包括了从CPU到设备的一揽子解决方案。从CPU的角度看,要解决虚拟机访问物理网卡等IO设备的性能问题,能做的就是直接支持虚拟机内存到物理网卡的DMA操作。Intel的VT-d技术及AMD的IOMMU技术通过DMARemapping机制来解决这个问题。DMARemapping机制主要解决了两个问题,一方面为每个VM创建了一个DMA保护域并实现了安全的隔离,另一方面提供一种机制是将虚拟机的GuestPhysicalAddress翻译为物理机的HostPhysicalAddress。从虚拟机对网卡等设备访问角度看,传统虚拟化的方案是虚拟机通过Hypervisor来共享的访问一个物理网卡,Hypervisor需要处理多虚拟机对设备的并发访问和隔离等。这样Hypervisor容易行成一个性能瓶颈。为了提高性能,一种做法是虚拟机绕过Hypervisor直接操作物理网卡,这种做法通常称作PCIpassthrough,VMware,Xen和KVM都支持这种技术。但这种做法的问题是虚拟机通常需要独占一个PCI插槽,不是一个完整的解决方案,成本较高且扩展性不足。另一种做法是设备如网卡直接对上层操作系统或Hypervisor提供虚拟化的功能,一个以太网卡可以对上层软件提供多个独立的虚拟的PCIe设备并提供虚拟通道来实现并发的访问。这种方法也是业界主流的做法和发展方向,目前已经形成了标准,主要包括SR-IOV(SingleRootIOVirtualization)和MR-IOV(Multi-RootIOVirtualization)。这方面的技术在网上已有很好的文章来做介绍,推荐想进一步了解的同学读一读:虚拟接入在传统的服务器虚拟化方案中,从虚拟机的虚拟网卡发出的数据包在经过服务器的物理网卡传送到外部网络的上联交换机后,虚拟机的标识信息被屏蔽掉了,上联交换机只能感知从某个服务器的物理网卡流出的所有流量而无法感知服务器内某个虚拟机的流量,这样就不能从传统网络设备层面来保证QoS和安全隔离。虚拟接入要解决的问题是要把虚拟机的网络流量纳入传统网络交换设备的管理之中,需要对虚拟机的流量做标识。在解决虚拟接入的问题时,思科和惠普分别提出了自己的解决方案。思科的是VN-Tag,惠普的方案是VEPA(VirtualEthernetPortAggregator)。为了制定下一代网络接入的话语权,思科和惠普这两个巨头在各自的方案上都毫不让步,纷纷将自己的方案提交为标准,分别为802.1Qbh和802.1Qbg。关于虚拟接入也有一篇很好的文章来介绍,想深入了解的可以看看:网络连接网络连接技术一直都在追求更高的带宽中发展。比如Infiniband和10Gb以太网。在传统的企业级数据中心设备管理系统构架中,服务器到存储网络和互联网络的连接是异构和分开的。存储网络用光纤,互联网用以太网线(ISCSI虽然能够在IP层上跑SCSI,但是性能与光纤比还是差的很远)。数据中心连接技术的发展趋势是用一种连接线将数据中心存储网络和互联网络聚合起来,使服务器可以灵活的配置网络端口,简化设备管理系统部署。以太网上的FCOE技术和Infiniband技术本身都使这种趋势成为可能。本文来自互联网,仅供参考


IT业界面临的九大最严峻安全威胁服务器虚拟化下的网络变迁
IT运维管理安全五大错误解析交通运输部领导将参与中国智能运输大会
CIO必须了解的7条法则顶级CIO必不可犯的八大IT失误
如何解决云服务面临重大安全信任问题IT运维管理方面需要迈过三重门
盘点云安全问题与预防措施Gartner发布2013年及未来中国IT市场五大预测
揭秘云安全五大盲区IT运维管理工程师必备的几大技能
服务器管理经验:IIS故障问题分析及解决方案云计算时代的IT运维走向何方?
云虚拟化存储和网络有哪些表现网络安全管理:网络安全八大威胁总结
信息发布:广州名易软件有限公司 http://www.myidp.net
  • 名易软件销售服务
  • 名易软件销售服务
  • 名易软件技术服务

  • 云计算环境下的网络虚拟化如何解决端到端问题?,云计算环境下的网络虚拟化如何解决端到端问题?