【图解】VMware携辉达、英特尔助攻企业级AI,拼“效率”打赢GPU资源战

随着今年生成式AI爆发,企业纷纷想投入自家的机密资料训练“专属大脑”,但GPU已经是高价稀缺资源,即便是满手捧钱的大型企业,也难以支应庞大的GPU需求。该怎么办?

购买一台服务器对企业来说是必要任务也是负担,成本高、消耗电力、占用空间而且需要维护。如果可以用一台功能几乎完全相同的“虚拟设备”,把硬件的功能转化为软件,就可以像在管理应用程式一样,轻松维运自家的服务器。

这就是软件大厂VMware一直以来耕耘的领域,早从2008年就确立了“GPU虚拟化”的技术走向,目前全球已经有多达30万家公司的系统,都在VMware平台上运作。

VMware抓紧商机,宣告携手AI世代两大GPU巨头辉达(NVIDIA)和英特尔(Intel),攻进企业私有AI领域,能够让企业把AI建立在自己的资料中心或服务器中,不需要经手其他大型云端公司,或者担心被喂给通用的AI模型训练。

VMware提供什么服务?

VMware技术长基特.寇伯(Kit Colbert)在接受《AI资源网》采访时指出,企业在导入生成式AI面临缺乏GPU的问题,VMware的技术能够协助企业做到两件事:向上扩展(Scale-up),和向外扩展(Scale-out)

向上扩展:GPU使用效率提升、共享资源效率

所谓的向上扩展,指的就是让企业能利用到更大量的GPU资源,而在资源有限的情况下,需要提升的是“使用效率”。

VMware的技术能够把目前的高阶GPU服务器也化为虚拟机,也就是把实体服务器转化成虚拟版本的“双胞胎”,在公司的软件系统上运行。

实体服务器无法被切割,在运算工作时需要一整包算力all-in使用,但“虚拟双胞胎”可以被切分成多个,灵活供应给不同需求的工作负载,例如消耗大量运算的工作就分配到4个虚拟GPU,少量运算的工作就只要用到1个虚拟GPU的资源即可。

Nvidia Hopper H100 GPU

NVIDIA H100 GPU也能被VMware的软件技术虚拟化。

图/ Nvidia

这项技术实现了企业需要的“效率”,不必买下所有需要的GPU量全力运转,用不到的资源甚至可以和其他用户共享,大幅提升利用率。

除了共享外,VMware也在今年推出和NVIDIA合作开发AI平台,借由NVIDIA的技术,让平台中运行的虚拟GPU容量一口气从8个翻倍到16个,“我们把硬件和软件整合起来变成一整套的解决方案。”估计可让数十万家企业运行生成式AI,新平台预计2024年初上市,确保自家客户可以掌握AI时代最稀缺的GPU资源。

延伸阅读:VMware携手NVIDIA发展私有云,会“惹到”公有云巨头吗?一文看懂冲击

向外扩展:部署在更多环境,应用更多元

负责Private AI产品的VMware Private AI Lab副总裁克里斯.沃夫(Chris Wolf)指出,在生成式AI崛起后,真的有更多客户对“私有云”重新产生需求,尤其是金融业、医疗业等手握大量机密资料的客户,希望训练出能了解产业知识和公司现况的AI模型,但又无法把所有资料丢上云,若是和业界对手一起共享运算资源,更是如坐针毡,“通常当我们跟客户说可以帮他们在私有环境运行AI时,他们才对导入AI产生高度兴趣。”

VMWARE CHRIS WOLF PRIVATE AI

VMware Private AI Lab 副总裁Chris Wolf

图/ 隋昱婵摄影

这让VMware重新定义了私有云的地位,执行长兰加拉詹.拉古拉姆(Rangarajan Raghu Raghuram)直言,Private AI将是未来的一大发展重点,除了和NVIDIA携手外,11月还宣布和Intel也推出独立平台。

Private AI能够让企业在自己公司的资料中心或服务器中建立、运行AI模型,不用担心系统跑不动或放不下巨大模型的问题,同时在平台上还能使用VMware和NVIDIA提供的预训练模型和开发工具,让导入AI的门槛更低,建立智慧聊天机器人、资料助理、公司内部系统搜寻和摘要等功能都可以快速上手。

谈起VMware在这场生成式AI大战中的策略,拉古拉姆只用一句话概括:“这是我们一直以来都在做的事。”在虚拟化技术的领导者眼中,也许这场“GPU资源争夺战”早在多年前就已经开始。

延伸阅读:GPT-4为何这么强?辉达GPU如何助攻?OpenAI首席科学家、黄仁勋解密

责任编辑:林美欣

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。