公司

关于芯原
管理团队
新闻发布
公司动态
市场活动
合作伙伴
加入我们
商标
联系我们

投资者关系

董事成员
主要投资者
股票信息
投资者联系
企业社会责任报告
首页 公司 新闻发布 神经网络推理引擎IP核运算速度超过每瓦10万亿次运行

神经网络推理引擎IP核运算速度超过每瓦10万亿次运行

2018-02-27

芯原借助其具备突破性神经网络压缩技术、运算速度能在0.5到72万亿次运行/秒之间进行调节的VIP8000神经网络处理器,强化其在深度神经网络处理方面的领先地位。

显著特点:

  • 从物联网终端设备到服务器ASIC都可扩展,运算速度从0.5到72万亿次运行/秒(TeraOPS) 

  • 在14nm工艺技术下运算速度可超过每瓦10万亿次运行/瓦 

  • 完全可编程处理器支持OpenCL、OpenVX和广泛的神经网络框架(TensorFlow、Caffe、AndroidNN、ONNX、NNEF等) 

  • 原生支持i8、i16、FP16和FP32推理引擎加速,支持多种精度的各类神经网络拓扑结构 

  • 随着分级压缩(Hierarchical Compression)、软件平铺/缓存(Software Tiling/Caching)、裁剪(Pruning)、获取跳过(Fetch Skipping)以及层合并(Layer Merging)技术的引入,内存带宽需求急剧减少 

  • 2017年新增10家VIP8000 IP被许可方

德国纽伦堡--芯原控股有限公司(VeriSilicon Holdings Co., Ltd.,简称“芯原”)今日宣布,其用途广泛且高度可扩展的神经网络推理引擎VIP8000系列已实现一系列重要的里程碑。

Jon Peddie研究所所长Jon Peddie博士表示:“人工智能和机器学习技术的采用是自个人PC时代以来计算机产业发生的最重要的事件,它将真正地变革、助力并改善我们的生活。它可被应用于IBM和Google的巨型机,也可被应用于搭载芯原神经网络处理器的微小芯片上。到2020年,我们不禁会问,曾经的我们是如何在没有AI助手的环境下生活的。”

机器学习和神经网络处理是嵌入式处理器的下一个主要市场机会。国际数据公司(IDC)预测,人工智能和机器学习方面的支出将从2016年的80亿美元增长到2020年的470亿美元。随着最新一代神经网络推理引擎IP的发布,芯原已成为该领域发展的主要推力。业界领先的VIP8000处理器持续拓展其应用范围,已从不间断电池供电的物联网终端设备应用扩展到AI服务器集群应用。

芯原VIP8000的最新升级主要针对神经网络模型推理加速,相比DSP、GPU和CPU混合处理器方案,更新后的VIP8000处理器在提高效率与推理速度的同时降低了内存带宽需求。完全可编程的VIP8000处理器达到了专用固定功能逻辑模块的性能和内存效率,并具有可定制性,且后续可在OpenCL、OpenVX和各种神经网络框架(TensorFlow、Caffe、AndroidNN、ONNX、NNEF等)上进行编程。VIP8000神经网络架构可以胜任广泛的人工智能工作负荷,同时优化了数据的内存管理。

芯原的神经网络推理引擎不仅性能优于所有传统的DSP、GPU和CPU混合系统,而且已作为成熟的IP核经由被授权方产品上市超过一年半时间。仅2017年便有10家主要的ASIC开发商经过对同类IP解决方案和SoC进行严格的基准测试后,选择了VIP。芯原的IP产品已成功地授权给广泛的终端客户,其应用涵盖先进辅助驾驶系统与无人驾驶汽车、安防监控、家庭娱乐、视觉图像处理以及服务器等。

VIP8000神经网络处理器实现了非常高的性能与能源效率,并兼具很强的扩展性。这款神经网络推理引擎最近在14nm工艺下,实现了超过10 TeraOPS每瓦的功率效率,且运算速度的范围为0.5到72 TeraOPS。相较于其他处理器架构,VIP8000引入新的分级压缩、软件平铺/缓存、裁剪、获取跳过和层合并(待审批专利)技术,进一步降低了内存带宽需求。

芯原首席战略官、执行副总裁兼IP事业部总经理戴伟进(Weijin Dai)表示:“人工智能无处不在。VIP8000系列集成了正在申请专利的神经网络压缩技术,有效地提高了产品性能,从而加速了人工智能在嵌入式产品中的普及。我们正在与从嵌入式产品到服务器终端产品等各个领域的主要客户深入接触。面向各类需求挑战的应用和算法正在不断发展,我们将人工智能技术与芯原广泛的IP产品线相结合,为客户提供突破性的解决方案。人工智能将高效地创造价值。”

芯原支持广泛的神经网络架构(TensorFlow、Caffe、AndroidNN、亚马逊机器学习、ONNX、NNEF、AlexNet、VGG16、GoogLeNet、Yolo、Faster R-CNN、MobileNet、SqueezeNet、ResNet、RNN、LSTM等),同时还提供大量的软硬件解决方案,使开发人员能够创建高性能的神经网络模型以及基于机器学习的应用程序。

芯原出席2018年德国嵌入式电子与工业计算机应用展(Embedded World 2018)

如需了解更多关于VIP8000神经网络以及相关芯原IP、神经网络生态系统解决方案开发合作伙伴、定制化硅芯片与先进封装(SiP)一站式服务的信息,请于2月27日-3月1日莅临在德国纽伦堡举行的2018年嵌入式电子与工业计算机应用展的4A展厅4A-360展位。

关于芯原

芯原控股有限公司(芯原)是一家芯片设计平台即服务(Silicon Platform as a Service,SiPaaS®)提供商,为包含移动互联设备、数据中心、物联网(IoT)、汽车、工业和医疗设备在内的广泛终端市场提供全面的系统级芯片(SoC)和系统级封装(SiP)解决方案。芯原的机器学习和人工智能技术已经全面布局智慧设备的未来发展。基于SiPaaS服务理念,芯原助力客户在设计和研发阶段领先一步,从而专注于差异化等核心竞争优势。芯原一站式端到端的解决方案则能够在短时间内打造出从定义到测试封装完成的半导体产品。宽泛灵活的SiPaaS解决方案为包含新兴和成熟半导体厂商、原始设备制造商(OEMs)、原始设计制造商 (ODMs),以及大型互联网和云平台提供商在内的各种客户提供高效经济的半导体产品替代解决方案。芯原的从摄像头输入到显示/视频输出的像素处理平台由高保真 ISP,支持机器学习加速的嵌入式视觉图像处理器(VIP),Vivante®低功耗GPU和高性能GPGPU,Hantro® 极清视频编解码器,以及支持多种接口标准的显示控制器组成,以上产品可无缝协同工作以提供优秀的PPA(性能、功耗和面积)。此外,基于芯原ZSP®(数字信号处理器核)技术的高清音频/语音平台和支持低功耗蓝牙(BLE)、Wi-Fi、NB-IoT和5G技术的多频多模无线基带平台为极低功耗和极高性能应用提供了可伸缩的架构。芯原增值的混合信号IP组合则可打造支持语音、手势和触摸界面的高能效自然用户界面(NUI)平台。芯原成立于2001年,总部位于中国上海,目前在全球已有超过600名员工。芯原在全球共设有5个设计研发中心和9个销售和客户支持办事处。

了解更多详情,敬请垂询:press@verisilicon.com

搜索

联系

语言

简体中文

English

日本語

芯原股份 (688521.SH)
感谢您的订阅
感谢您通过邮件.订阅芯原的最新消息。在您等待我们网站的下次更新时,我们邀请您通过以下资源来了解芯原的更多信息。
一站式芯片定制服务
Vivante图形处理器IP
Vivante神经网络处理器IP
ZSP数字信号处理器IP
Hantro视频处理器IP
关于芯原
关闭