快捷搜索:  super mario  olympics  modded switch  nintendo  as  beyonce

英特尔官宣新一代VPU 加速AI开发、部署和性能提

在2019英特尔人工智能峰会时代(Intel AI Summit 2019),英特尔展示了一系列新产品进展,旨在加速从云端到边缘的人工智能系统开拓和支配,欢迎下一波人工智能浪潮的到来。英特尔展示了面向练习 (NNP-T1000) 和面向推理 (NNP-I1000) 的英特尔Nervana神经收集处置惩罚器 (NNP)。作为英特尔为云端和数据中间客户供给的首个针对繁杂深度进修的专用 ASIC芯片,英特尔Nervana NNP具备超高扩展性和超高效率。英特尔还宣布了下一代英特尔Movidius Myriad视觉处置惩罚单元 (VPU),用于边缘媒体、谋略机视觉和推理利用。

英特尔公司副总裁兼人工智能产品奇迹部总经理Naveen Rao表示:“跟着人工智能的进一步成长,谋略硬件和内存都将到达临界点。假如要在该领域继承取得伟大年夜进展,专用型硬件必弗成少,如英特尔Nervana NNP 和Movidius Myriad VPU。采纳更先辈的系统级人工智能,我们将从‘数据到信息的转换’阶段成长到‘信息到常识的转换’阶段。”

跟着这些产品的宣布,英特尔人工智能办理规划产品组合进一步获得强化,并有望在2019年创造跨越35亿美元的营收。英特尔人工智能产品组合的广度和深度都堪称行业之最,能够赞助客户在从云端到边缘的所有设备和各个范围内,进行人工智能模型的开拓和支配。

新推出的英特尔Nervana神经收集处置惩罚器现已投入临盆并完成客户交付,它是系统级人工智能办理规划的一部分。该办理规划供给由开放组件和深度进修框架集成开拓而成的完备软件客栈,能够充分使用硬件机能。

英特尔Nervana神经收集练习处置惩罚器(Intel Nervana NNP-T)在谋略、通信和内存之间取得了平衡,不管是对付小规模群集,照样最大年夜规模的 pod 超级谋略机,都可进行近乎线性且极具能效的扩展。

英特尔Nervana神经收集推理处置惩罚器(Intel Nervana NNP-I)具备高能效和低资源,且其形状规格机动,异常得当在实际规模下运行高强度的多模式推理。这两款产品面向百度、 Facebook 等前沿人工智能客户,并针对他们的人工智能处置惩罚需求进行了定制开拓。

Facebook人工智能系统协同设计总监Misha Smelyanskiy表示:“我们异常痛快能够与英特尔相助,使用英特尔神经收集推理处置惩罚器(NNP-I)支配更快、更高效的推理谋略。同时,我们最新的深度进修编译器Glow也将支持NNP-I。”

英特尔公司物联网奇迹部副总裁、视觉市场和渠道部门总经理Jonathan Ballon展示下一代英特尔Movidius VPU

此外,下一代英特尔Movidius VPU计划于2020年上半年上市,凭借环球无双的高效架构上风,能够供给业界领先的机能:与上一代VPU比拟,推理机能提升10倍以上,能效则可达到竞品的6倍。英特尔还宣布了全新的英特尔DevCloud for the Edge,与英特尔Distribution of OpenVINO对象包合营办理开拓职员的主要痛点,即在购买硬件前,能够在种种英特尔处置惩罚器上考试测验、支配原型和测试AI办理规划。

推进深度进修推理和利用必要极其繁杂的数据、模型和技巧,是以在架构选择上必要有不合的考量。事实上,业界大年夜部分组织都基于英特尔至强可扩展处置惩罚器支配了人工智能。英特尔将继承经由过程英特尔矢量神经收集指令 (VNNI) 和英特尔深度进修加速技巧(DL Boost)等功能来改进该平台,从而在数据中间和边缘支配中提升人工智能推理的机能。在未来很多年中,英特尔至强可扩展处置惩罚器都将继承成为强有力的人工智能谋略基石。

对付有着最先辈深度进修练习需求的英特尔客户来说,他们要求机能每3.5个月提升一倍,而这一类冲破只有借助一系列人工智能办理规划才能实现,比如英特尔人工智能办理规划。英特尔有能力周全斟酌谋略、内存、存储、互连、封装和软件,以最大年夜限度提升效率和可编程性,并能确保将深度进修扩展到数以千计节点的关键能力,进而扩大年夜常识革命的规模。

作者:欢然

您可能还会对下面的文章感兴趣: