人工智能深度学习处理架构的演进,GPU功耗和延迟问题如何解决

资料大小: 0.53 MB

所需积分: 0

下载次数:

用户评论: 0条评论,查看

上传日期: 2018-09-07

上 传 者: 易水寒他上传的所有资料

资料介绍

标签:深度学习(1002)人工智能(8697)gpu(685)

  人工智能由三方面共同组成,算法、数据以及计算平台

  现在虽然人工智能是个热门概念,但很多人误以为“人工智能等于深度学习”,但其实人工智能的范围大于机器学习,机器学习的范围又大于深度学习。

  神经网络的概念并不新颖,Yann LeCun在1998年就提出了MNIST数据集和CNN

  2012年时,Google X启动了“猫脸识别计划”,吴恩达和Jeff Dean用了1000台分布式服务器和一万六千个CPU。同期的AlexNet只需要1台服务器、2个GPU就训练出来了。

  GPU确实给整个行业带来了很大的变化,那么GPU真的就足够了吗?

  GPU的话,功耗和延迟都会是严重的问题,问题在哪儿呢?

用户评论

查看全部 条评论

发表评论请先 , 还没有账号?免费注册

发表评论

用户评论
技术交流、我要发言! 发表评论可获取积分! 请遵守相关规定。
上传电子资料