瑞芯微为啥要做AI芯片?

求辛苦解答一下... 求辛苦解答一下 展开
 我来答
qjg16888
2018-08-17 · TA获得超过2.6万个赞
知道大有可为答主
回答量:6736
采纳率:92%
帮助的人:844万
展开全部
传统芯片,比如CPU、GPU有很大的区别。在执行AI算法时,更快、更节能。
(2)工艺没有区别,大家都一样。至少目前来看,都一样。
所谓的AI芯片,一般是指针对AI算法的ASIC(专用芯片)。
传统的CPU、GPU都可以拿来执行AI算法,但是速度慢,性能低,无法实际商用。
比如,自动驾驶需要识别道路行人红绿灯等状况,但是如果是当前的CPU去算,那么估计车翻到河里了还没发现前方是河,这是速度慢,时间就是生命。如果用GPU,的确速度要快得多,但是,功耗大,汽车的电池估计无法长时间支撑正常使用,而且,老黄家的GPU巨贵,经常单块上万,普通消费者也用不起,还经常缺货。另外,GPU因为不是专门针对AI算法开发的ASIC,所以,说到底,速度还没到极限,还有提升空间。而类似智能驾驶这样的领域,必须快!在手机终端,可以自行人脸识别、语音识别等AI应用,这个必须功耗低,所以GPU OUT!
所以,开发ASIC就成了必然。
说说,为什么需要AI芯片。
AI算法,在图像识别等领域,常用的是CNN卷积网络,语音识别、自然语言处理等领域,主要是RNN,这是两类有区别的算法。但是,他们本质上,都是矩阵或vector的乘法、加法,然后配合一些除法、指数等算法。
一个成熟的AI算法,比如YOLO-V3,就是大量的卷积、残差网络、全连接等类型的计算,本质是乘法和加法。对于YOLO-V3来说,如果确定了具体的输入图形尺寸,那么总的乘法加法计算次数是确定的。比如一万亿次。(真实的情况比这个大得多的多)
那么要快速执行一次YOLO-V3,就必须执行完一万亿次的加法乘法次数。
这个时候就来看了,比如IBM的POWER8,最先进的服务器用超标量CPU之一,4GHz,SIMD,128bit,假设是处理16bit的数据,那就是8个数,那么一个周期,最多执行8个乘加计算。一次最多执行16个操作。这还是理论上,其实是不大可能的。
那么CPU一秒钟的巅峰计算次数=16X4Gops=64Gops。
这样,可以算算CPU计算一次的时间了。
苏州中芯启恒科学仪器有限公司
2022-03-09 广告
微流控芯片建议选择苏州中芯启恒科学仪器有限公司,苏州中芯启恒科学仪器有限公司设立在环境优美的苏州新加坡工业园区内。公司主要从事芯片微结构加工,微流控芯片研发、制作与销售服务;提供芯片实验室组建整体解决方案(涉及不同材质、不同精度微流控芯片实... 点击进入详情页
本回答由苏州中芯启恒科学仪器有限公司提供
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式