长期以来,英特尔一直在投资从硬件到软件的各个层面,以期建立一个充满活力的生态系统。英特尔把软件分为三个层次,分别是底层软件、中层软件和上层服务。其中,底层软件能够保证AI的性能满足各种AI应用的需求。英特尔一直在大力投入底层软件,以释放硬件潜力。在此基础上,为使中层软件充分利用硬件优势,突显市场价值,英特尔一直在不遗余力地支持各种开源社区(如Linux基金会、CNCF社区等),提供商业软件或开源软件,并在硬件平台上进行优化。最近,英特尔通过可信任的计算技术,在中间层面打通了从服务器到硬件的各种道路,保证了可信任的执行环境,为上层各种AI应用提供了可信任的基石。基于底层和中层软件,英特尔始终与生态伙伴一起,在最上层的新模式、新平台和新市场中创造出全新价值。
基于以上战略,英特尔一直在携手百度飞桨共同推动产业深度合作,并取得了丰硕成果。在此次峰会上,英特尔联合百度飞桨共同发布了两个白皮书——《验证至强内置全新AI加速技术》和《见证CPU加速AI for Science普及潜能》,以详细介绍双方在近期的技术合作情况。在数据中心层面,全系列英特尔®至强®可扩展处理器针对百度飞桨的各种模型和框架进行了深度优化。此外,基于英特尔软硬件的联合优化,百度ERNIE 3.0轻量化版本ERNIE-Tiny的性能获得了显著的提升。作为百度面向NLP领域的重要技术方案,基于轻量化技术的ERNIE 3.0轻量版可在搜索排序、推荐、信息抽取、地图检索、自然语言推断等应用场景中为用户提供响应迅速、质量可靠的能力输出。全新第四代英特尔®至强®可扩展处理器及英特尔®AMX技术的引入,配合英特尔®oneAPI深度神经网络库(英特尔®oneDNN)来调用英特尔®AMX指令,使轻量版ERNIE 3.0在通用CPU平台上也能获得令人满意的推理效能,进而帮助更多用户在其既有IT设施中更方便地部署ERNIE 3.0。
此外,AI在科学领域的应用也面临各种挑战——如何让AI模型和物理模型进行联合扩展,如何保证各种AI框架和计算模型、计算框架实现无缝连接等。为此,英特尔还联合百度飞桨共同探索AI for Science领域,借助各种深度学习加速技术,共同助力深度学习技术在AI和科学计算领域的应用,有效提高用户深度学习应用的各种效率。例如,借助英特尔oneAPI提供的深度学习加速库,百度飞桨与传统分子动力学软件LAMMPS进行结合,进而打通了从训练到推理的全流程,实现了从0到1的突破性进展。
为加速一站式边缘AI开发部署,英特尔与百度飞桨合作,使广大开发者可以借助百度飞桨EasyDL快速开发针对边缘硬件优化的模型,并基于英特尔视频AI计算盒与OpenVINO深度学习推理工具在边缘端加速视频AI计算。英特尔视频AI计算盒是一款基于英特尔硬件的高性能、可扩展通用计算平台,覆盖各类行业与场景的商用AI算法,聚合诸多生态伙伴,能够有效应对边缘AI碎片化挑战,并实现云边端灵活部署。基于英特尔视频AI计算盒的以上特点,结合EasyDL全场景、零门槛、广适配的优势,用户可以缩短模型训练周期,并根据实际场景选择不同部署方式,以实现更便捷的落地。
与此同时,英特尔还一直在与百度飞桨合作共同繁荣AI生态,实现共同发展。近年来,英特尔OpenVINO与百度飞桨围绕构建模型、优化及部署三个方面的合作不断深入,不仅帮助开发者减少中间环节,还能够让一些大规模大模型在边缘部署成为可能,优化了整个的边缘推理和操作流程。如今,OpenVINO不仅能够支持飞桨模型在英特尔CPU和集成显卡上部署,还可以支持飞桨模型在英特尔独立显卡上部署。此外,OpenVINO不仅支持飞桨模型在单张独立显卡上部署,还可以通过一行代码支持飞桨模型在多张独立显卡上部署。
如今,以计算、连接、基础设施、人工智能,以及传感和感知为代表的五大基础超级技术力量正在推动科技的创新与发展。在此趋势下,英特尔将继续以“水利万物而不争”的生态之道与更多行业伙伴进行合作,不断践行其“拥抱开源、全栈赋能”的承诺,推动AI技术日趋成熟,加速落地千行百业!