导读:今年上半年国家发布“十四五规划”,特别指出要“瞄准人工智能、量子信息、集成电路等前沿领域。作为新一轮产业变革的核心驱动力,人工智能相关技术和应用正呈现快速发展的趋势。


聚焦到人工智能芯片,数据显示,2021年开始,云数据中心对于人工智能推理芯片的需求逐渐超越对于训练芯片的需求,整个推理市场蓄势待发。而且,随着模型训练逐渐成熟,AI应用逐渐落地,市场差距还会越来越大。


在此背景之下,瀚博半导体于7日在2021世界人工智能大会期间发布其首款云端通用AI推理芯片SV100系列及VA1通用推理加速卡,可实现深度学习应用超高性能、超低延时的推理性能,可显著降低数据中心与边缘智能应用的部署成本。

瀚博半导体推出云端通用AI推理芯片和加速卡 可降低数据中心与边缘智能部署成本

云端通用AI推理芯片SV100系列


瀚博SV100系列是一款超高性能人工智能与视频处理芯片,核心优势是能兼顾智能视频解码和AI计算的需求。2021年6月,SV100系列芯片测试成功。钱军透露说,这款推理芯片开始测试8分钟就宣布点亮。


据介绍,此次发布的瀚博SV100系列芯片,单芯片INT8峰值算力超200 TOPS,深度学习推理性能指标数倍于现有主流数据中心GPU,具有超高吞吐率、超低延时的特性。


SV100系列芯片支持FP16, BF16和INT8等数据格式,并可以实现众多主流神经网络的快速部署及计算机视觉、视频处理、自然语言处理和搜索推荐等多样化推理应用场景。


同时集成高达64路以上H.264/H.265/A VS2的1080p视频解码,广泛适用于云端与边缘智能应用场景,提升客户的设备资产效益、降低运营成本。


VA1推理加速卡


除了发布SV100系列,瀚博半导体也同步推出了基于SV102芯片(SV100系列首发产品)的VA1 PCIe推理加速卡。


VA1采用单宽半高半长75瓦PCIe x16卡设计,支持32GB内存和PCIe 4.0高速接口协议,适用于绝大多数服务器,无需额外供电,即可实现数据中心高密度算力部署。


该加速卡可提供高效率深度学习AI推理加速,在同等能耗下,实现2-10倍于GPU的最高AI吞吐率,而延时不到GPU的5%,适合实时应用。


同时,它兼备良好的通用性和可扩展性,支持FP16、BF16和INT8数据类型的主流神经网络快速部署,包括检测、分类、识别、分割,视频处理、LSTM/RNN、NLP/BERT、搜索推荐等。

瀚博半导体推出云端通用AI推理芯片和加速卡 可降低数据中心与边缘智能部署成本

根据瀚博半导体分享的测试结果,同等推理性能下,瀚博SV102/VA1方案比英伟达T4 GPU节省60%服务器成本,比A10 GPU节省50%的TCO。


视频处理方面,VA1支持64路以上H264、H265或A VS2 1080p解码,分辨率支持高达8K。


相比之下,市面上许多云端AI推理芯片没有内置视频解码,而是用多个GPU来做视频解码,因此从更适配处理到AI加速要用到多颗芯片,而VA1只用一颗SV102就能兼顾两类功能,且功耗更低、处理能力更强。


目前,瀚博半导体正将其加速卡与联想、浪潮、新华三、超微服务器以及CentOS、Ubuntu、红帽、中标麒麟、银河麒麟等操作系统做适配。


如何判断AI的性能?可以从LTE三个方面来看,分别是指Latency延时、Throughput吞吐量和Energy Efficiency低功耗。


瀚博半导体创始人兼CEO钱军说,这两款新品能有效应对低延时、通用性和视频处理等方面的行业痛点,推进云端与边缘的智能应用落地。


据悉,其SV100系列首发产品SV102现与国内外多家头部互联网公司合作,预计将于今年第四季度量产上市。

瀚博半导体推出云端通用AI推理芯片和加速卡 可降低数据中心与边缘智能部署成本

瀚博半导体成立于2018年12月,总部设在上海,在北京、深圳和多伦多有研发分部。当前其团队规模已超过200人,硕士及以上学历占80%。今年2月,瀚博研究院成立。


AI芯片赛道持续火热,资本投资热情不减。不过与前两年不同的是,如今人们看待AI芯片更加理性,不再轻易听信故事,而是聚焦在审视其核心技术的独特竞争优势以及落地能力上。


如今全球AI芯片仍在起步阶段,无论是科研创新还是产业应用都有广阔的探索空间。对于AI芯片创企来说,这仍是个开创未来的黄金时代。


文章来源: 镁客网,芯东西

免责声明

我来说几句

不吐不快,我来说两句
最新评论

还没有人评论哦,抢沙发吧~