英特尔至强路线图与技术领导力部门首席架构师 资深院士RonakSinghal
近日,英特尔携手微软为开放计算项目(OCP)提供了可扩展I/O虚拟化(SIOV)架构,使设备和平台制造商能够使用云服务器中的PCIe和ComputeExpressLink设备的超大规模虚拟化的行业标准规范。采用SIOV架构后,数据中心运营商不仅能够让客户降低使用高性能加速器和其他关键I/O设备的成本,亦能够减轻此前的标准为I/O设备制造商带来的成本和编程负担。
新的SIOV架构是一种现代化的硬件和软件架构,不仅可以实现I/O设备高效的大规模虚拟化,也克服了先前I/O虚拟化技术的扩展限制。根据开放计算项目的条款声明,任何公司都可以采用SIOV技术,并可以通过开放的零成本许可将其应用于自身产品中。
在云环境中,包括网络适配器、GPU和存储控制器在内的I/O设备能够在许多需要其服务的虚拟化工作负载之间共享。通过虚拟化软件堆栈,硬件辅助的I/O虚拟化技术能够有效地将这些工作负载的I/O流量路由到这些设备中,而且它也有助于降低成本并达到接近“裸金属”速度的性能。
I/O虚拟化将从企业级规模演进到超大规模
十多年前发布的单根I/O虚拟化(SR-IOV)是第一个I/O虚拟化架构,基于那个时代的虚拟化环境,每台服务器通常运行少于20个虚拟化工作负载。SR-IOV将大部分虚拟化和管理逻辑加载到PCIe设备上,但这不仅增加了设备的复杂性也降低了虚拟化堆栈的I/O管理的灵活性。在随后的几年中,由于CPU内核数量增长,虚拟化堆栈日渐成熟,容器和微服务技术使得工作负载密度成指数级增长。基于此,随着从“企业级规模”过渡到“超大规模”虚拟化,I/O虚拟化也需要日渐演进。
SIOV是专为超大规模时代设计的硬件辅助I/O虚拟化,具备支持每台服务器数千个虚拟化工作负载的潜能。一方面,SIOV将把性能要求不敏感的虚拟化和管理逻辑从PCIe设备转移到虚拟化堆栈中;另一方面,它还在设备上使用了一个新的可扩展标识符,即PCIe内存地址空间ID,主要用于工作负载的内存寻址。虚拟化I/O设备不仅变得更容易配置和扩展,还能为它同时支持的每个虚拟机、容器或微服务提供接近原生的性能。
SIOV的优化可以降低设备成本,让设备更有效地访问大量虚拟机和容器,并让虚拟化堆栈实现更灵活地配置和组合。整体而言,SIOV不仅为严苛的数据中心提供了一条高效的途径,也为塑造数字世界更领先的AI、网络、分析和其他高要求的虚拟工作负载提供了高性能I/O和加速。
标准和开放的生态系统推动增长和创新
英特尔公司首席执行官帕特·基辛格(PatGelsinger)近期指出,基于行业标准的开放生态系统加速了行业发展,并为客户提供了更多选择。基于此,英特尔和微软开发、验证了SIOV架构并将其提供给开放计算项目。未来,它将持续推动CPU、I/O器件和云架构的创新,从而为每个人提更高的服务性能和更大规模的经济效应。我们也非常期待开放计算项目社区能够采用和持续优化该架构。
微软云和人工智能高级架构总经理ZaidKahn表示:“随着系统架构和生态系统的发展,微软长期以来一直与芯片合作伙伴在标准方面展开合作。可扩展I/O虚拟化架构是我们与英特尔一起为硬件开放标准所做的最新贡献,此外还有诸如PCIe、ComputeExpressLink和UEFI等贡献。通过与英特尔和开放计算项目合作,我们希望广泛推动SIOV在芯片厂商、设备供应商和IP供应商中的大规模应用,同时也期待能在整个生态系统中进行更广泛的合作,并随着云基础设施需求的增长和变化而不断演进这项标准。”
值得注意的是,即将推出的英特尔®至强®可扩展处理器(代号SapphireRapids)、英特尔®以太网800系列网络控制器以及未来的PCIe和ComputeExpressLink(CXL)设备和加速器都将支持SIOV技术。同时,Linux内核的相关工作正在进行中,预计将在2022年晚些时候集成该技术。此外,设备、CPU和虚拟化生态系统中的主要厂商也已经了解相关信息,并很期待将SIOV整合到他们的产品路线图中。
基于SIOV,云、网络和数据中心行业可以为超大规模时代的虚拟化提供统一的启动平台。
更多有关SIOV的信息
我们已经可以看到“良性循环”在发挥作用,因为开放的行业标准会催生巨大的创新,希望更多的企业和机构能够加入我们的行列,在他们的产品和云基础设施中支持SIOV,并加入开放计算项目社区,共同推动这项技术的发展。欲了解更多信息,可在开放计算项目网站上查看这项规范。