您的位置:首页 >科技 >

Qualcomm通过AI芯片在数据中心再次破解

2019-04-11 13:03:22   编辑:   来源:
导读 移动芯片巨头高通公司 (纳斯达克股票代码:QCOM)一直试图将自己插入数据中心市场一段时间。该公司早在2017年就推出了基于ARM的Centriq系列

移动芯片巨头高通公司 (纳斯达克股票代码:QCOM)一直试图将自己插入数据中心市场一段时间。该公司早在2017年就推出了基于ARM的Centriq系列服务器CPU,目的是从英特尔手中夺走市场份额,英特尔完全占据了这个市场的主导地位。但它低估了在基于不同行业标准的芯片上销售客户的难度。高通并没有完全放弃这项努力,但其雄心壮志已大大缩减。

高通公司的服务器CPU可能永远不会取得多大成功,但人工智能的发展为专为加速AI工作负载量身定制的专用芯片创造了巨大的市场。例如,图形芯片公司NVIDIA (纳斯达克股票代码:NVDA)已将其数据中心业务部门发展成为一家年收入约30亿美元的业务。NVIDIA的GPU用于各种其他应用程序,但AI近年来一直是公司的重点。

NVIDIA并不是唯一一家构建AI芯片的公司。Alphabet的谷歌已经开始研发第三代Tensor处理单元,这是一种在自己的数据中心使用的AI芯片。英特尔正在开展各种计划,包括显卡和更具异国情调的处理器。各种初创企业正在开发自己的AI芯片。NVIDIA是一个早期的推动者,但AI芯片市场正在变成一个全面的淘金热。

您现在可以将Qualcomm添加到追求此机会的公司列表中。4月9日,它发布了Qualcomm Cloud AI 100,这是一款旨在加速云中AI推理处理的芯片。该芯片将于今年下半年开始向客户提供样品,并可能在2020年的某个时间推出。

很大的承诺

高通公司的目标是推理,这是在新数据上使用已经过培训的系统的过程。例如,用于识别图像中的对象的AI系统首先需要在大量标记图像上进行训练。该培训过程是计算密集型的,涉及大量数据。培训完成后,系统可用于识别未参与培训过程的全新图像中的对象。这种推理过程仍然是计算密集型的,但不如训练。

由于推理是计算密集型的,因此在硬件级别设计的专用芯片可以比CPU或甚至GPU等通用处理器更加高效。高通公司声称,与“目前部署的业界最先进的AI推理解决方案”相比,其AI 100芯片的每瓦性能提升了十倍。在进行比较时,该公司可能会提到GPU。

AI 100将建立在7nm工艺节点上,可能来自台积电,它将支持PyTorch,Glow,TensorFlow,Keras和ONNX等流行软件。

对NVIDIA的威胁

NVIDIA在销售人工智能加速GPU方面取得了很大成功,但GPU仍然比专为单一应用设计的AI 100芯片更具通用性。考虑到AI 100可能类似于谷歌的TPU,高通公司的表现并非如此。高通公司的专长在于移动处理器的功耗,因此在功率效率方面具有优势。

当然,高通仍然需要推出这款芯片,并说服数据中心客户选择它。NVIDIA是市场领导者,GPU已成为标准解决方案。已经部署了一堆NVIDIA GPU的客户有转换成本,因此赢得市场份额需要时间。

但NVIDIA肯定会担心竞争激烈,特别是考虑到其数据中心市场的销售已经放缓。GPU不是全部和最终的AI加速,因此公司的主导地位可能不会持久。

鉴于高通公司迄今为止提供的细节很少,因此无法预测AI 100是否会取得成功。但如果该公司能够兑现其性能承诺,它可以为自己开辟出一个有意义的AI加速市场。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢