百度推出高性能人工智能芯片

最近花姐发现有诸多的小伙伴们对于百度推出高性能人工智能芯片这个问题都颇为感兴趣的,大家也都想要及时了解到百度推出高性能人工智能芯片相关信息,那么花姐今天就来为大家梳理下具体的关于这个问题的一些消息吧。

中国领先的百度公司现在正在展示一种专门设计的AI芯片,称为KunLun。

昆仑:百度推出高性能人工智能芯片

百度“昆仑”是中国制造的首个IA芯片

百度今天宣布了在中国创建的首个基于云的IA芯片KunLun,该芯片旨在满足实现人工智能的各种场景的高性能要求。

KunLun是一款高性能,高性价比的解决方案,可满足AI的高处理要求。利用百度的AI生态系统,其中包括搜索排名方案和深度学习框架(例如PaddlePaddle)。百度在优化涉及IA的这些服务和框架的性能方面的多年经验为该公司提供了构建世界级IA芯片所需的专业知识。

百度展示用于训练和推理的AI芯片

百度于2011年开始开发基于FPGA的IA处理器,用于深度学习,并且GPU一直在数据中心中使用。KunLun由数千个小核组成,其计算能力比原始的基于FPGA的加速器快近30倍。其他关键规格包括14nm Samsung工程,512GB /秒的内存带宽以及260TOPS,同时消耗100瓦的功率。

KunLun是一款高性能,高性价比的解决方案,可满足AI的高处理要求。利用百度的AI生态系统,其中包括搜索排名方案和深度学习框架(例如PaddlePaddle)。百度在优化涉及IA的这些服务和框架的性能方面的多年经验为该公司提供了构建世界级IA芯片所需的专业知识。

昆仑:百度推出高性能人工智能芯片

百度于2011年开始开发基于FPGA的IA处理器,用于深度学习,并且GPU一直在数据中心中使用。KunLun由数千个小核组成,其计算能力比原始的基于FPGA的加速器快近30倍。其他关键规格包括14nm Samsung工程,512GB /秒的内存带宽以及260TOPS,同时消耗100瓦的功率。

Li表示,Kunlun可以用于训练,该变体称为818-300,此外,该芯片还适用于推理,其标签为818-100。在未指定计算精度的情况下,260太赫兹的带宽为512 GByte / s,功耗超过100瓦,而CEO则没有提到速度。进行比较:Google的TPU v2使用FP32创建了45 teraflops,功率可能超过200瓦,可以使用16位乘法。水冷的TPU v3将为每个芯片提供90 teraflops。

百度Brain 3.0作为新的AI服务

百度将昆仑词的两个变体描述为适合于一般深度学习,语音和文字处理或自动驾驶汽车。百度还展示了名为Apolong的AI总线,该总线将于2019年初在北京等中国城市或东京等日本城市提供。自2011年以来一直在研发的昆仑芯片,未来将用于百度Brain 3.0,百度的AI服务等。

这家中国公司没有确切说明百度何时在其系统中使用昆仑。但是,该芯片将仅是用于人工智能的ASIC系列中的第一款,因此有望进一步实现。

栏目推荐