您现在的位置:书新闻
【百道编按】人民邮电出版社出版《AI芯片:前沿技术与创新未来》一书,本书主要从人工智能(AI)的发展历史讲起,介绍了目前非常热门的深度学习加速芯片和基于神经形态计算的类脑芯片的相关算法、架构、电路等,并介绍了近年来产业界和学术界一些著名的AI芯片,包括生成对抗网络芯片和深度强化学习芯片等。本文从芯片种类、兴起和未来三个维度阐述AI无限的想象空间。
《AI芯片:前沿技术与创新未来》
点击图书封面可直接购买
出版社:人民邮电出版社
作者:张臣雄
出版时间:2021年03月
据报道,2021年元旦至4月19日期间,全球人工智能芯片(AI芯片)总投资额已超过200亿元。AI芯片的“风口”逐渐显露。
小小芯片引来了大量巨头的青睐,英伟达、英特尔、AMD等传统芯片巨头,以及微软、脸书、谷歌和亚马逊等传统软件和互联网公司,也纷纷开发自己的AI芯片。
在短短十几年里,深度学习经历了使用传统CPU的艰难历程,通过GPU打开了局面,现在终于发展到自成体系的AI芯片产业,各个厂商也根据自身发展的特性纷纷加入进来,并开始探索深度学习之外的AI芯片发展路线。
AI芯片就是专门用于处理人工智能相关计算任务的芯片。因为深度学习是目前主流的人工智能算法,所以当前大部分AI芯片都是用来处理深度学习任务的。从利用图形处理器作为最初的深度学习加速芯片,到专门为 AI 定制的五花八门的专用芯片,在短短几十年的时间里,AI 芯片就飞速发展成为一个新兴的产业。
2006年,深度学习的概念被杰弗里·辛顿(Geoffrey E. Hinton)等人正式提出。而早在此之前的1986年,对深度学习意义重大的“反向传播”算法,已经被辛顿等人发明并用于改善神经网络性能,不过,当时的神经网络算法只能跑在通用的中央处理器(CPU)上,速度很慢,完全无法支撑应用。
摩尔定律驱动着集成电路产业飞速发展,芯片性能大约每两年就能翻一倍。
到了1989年,当时还在贝尔实验室的杨立昆(Yann LeCun)开发了可以通过训练来识别手写邮政编码的神经网络,证明了能够在现实世界中应用这一新技术。然而这时候他们训练一个深度学习卷积神经网络(Convolutional Neural Network,CNN)仍然需要3天的时间,推广应用还是无法企及。究其原因,CPU的设计目标是通用,各种计算任务都需要应付,但是不一定在每种任务场景之下都能做到高效,比如在处理神经网络计算这方面,效率就很低。
2009年,斯坦福大学的吴恩达(Andrew Y. Ng)等人发表文章,分享了他们的研究:用GPU训练深度学习神经网络,比用CPU快70倍! 因为GPU内部有大量相同内核,天然适合并行处理大量并行任务,恰好神经网络训练需要这样的强大并行处理能力。由于解决了计算能力问题,深度学习成为业界显学,并推动了人工智能的新一轮全球发展热潮。
GPU虽然短暂地成为了新一代宠儿,但是它也有不可忽视的缺点——功耗高,高性能显卡功率经常超过300瓦。2016年,AlphaGo对战围棋九段高手李世石时,运行该AI程序的服务器功耗达一百万瓦,将近人脑的5万倍。[4]这样的功耗意味着依靠GPU的人工智能,还无法在生产生活中推广使用。
有痛点,就有需求。处理深度学习任务的GPU,亟需降低功耗,但降低功耗的GPU还不够。现场可编程门阵列(Field Programmable Gate Array,FPGA)技术有了新的用武之地:FPGA芯片可以重构,经过重新编程处理深度学习任务,功耗比GPU显著降低,成本也低不少。就这样,FPGA成为了AI芯片的重要技术路线之一。
不过对于深度学习等AI任务,FPGA还不算是最终的解决方案。解决特定问题,专用集成电路(Application Specific Integrated Circuits,ASIC)是目前最高效的。ASIC会把某种算法固化到芯片里,专门处理一类任务的芯片耗电和占用面积显著降低,性能也提高了。
如今人工智能(Artificial Intelligence,AI)正在影响各行各业,并将极大地影响人们的工作和生活。如今自动驾驶、语音识别、图像识别、万物智联等AI应用场景发展空间巨大,不少对领域理解深刻、算法方面有积累的公司和团队已经推出专用集成电路AI芯片。
比如英特尔、英伟达等传统芯片厂商、亚马逊等云计算厂商、Facebook等互联网大厂、特斯拉等车企。他们纷纷投入AI芯片的探索中来,新品发布络绎不绝,技术路线、产品优势各有不同,构成了宏大的深度学习处理器技术和产业生态。根据IC Insights的报告,AI芯片市场规模2019年已达80亿美元,到2026年预计将达到700亿美元。
这中间,作为芯片领域全球“老大哥”的英特尔,早在2015年就以167亿美元的价格收购了当时在FPGA全球市场坐第二把交椅的Altera公司,并很快推出了应用FPGA技术处理深度学习任务的芯片。同年英特尔宣布以4.08亿美元收购专用集成电路AI芯片公司Nervana Systems。2017年,英特尔发布了包含深度学习处理模块的Movidius Myriad X 芯片,同年还以153亿美元并购Mobileye公司,押注自动驾驶智能芯片领域。在2019年,英特尔又以20亿美元并购了成立仅3年的以色列AI芯片公司Habana Labs。英特尔对AI芯片的投入可谓手笔惊人。
从最初深度学习加速器的产业化,到基于神经形态计算的类脑芯片迅速发展,AI 芯片在数年内取得了巨大进步。按照现在的技术发展轨迹,我们或许可以预测 10 - 20 年后 AI 芯片的形态:除了比现在强大得多的性能、极低的功耗外,它可能是可弯曲、可折叠甚至全透明的薄片,可以随时按需打印,或者植入人类体内,甚至可能是一种用蛋白质实现、量子计算原理设计的 AI 芯片……
就科技发展趋势来看,深度学习只是人工智能的实现路径之一。类脑计算,存算一体等新的计算范式,还有更多新的理论和技术能够衍生出新的AI芯片,推动人工智能的发展,甚至有可能带来跨跃式的进步,并超出我们的想象。
“AI芯片也许会引领下一次工业革命。”忆阻器之父蔡少棠表示,同时他推荐了张臣雄的新作《AI芯片:前沿技术与创新未来》。
这是一本关于深度学习和神经形态计算等类别AI芯片的及时、全面而富有远见的书。尽管使AI芯片成为可能的革命性前沿进展层出不穷,覆盖理论和硬件等诸多方面,作者还是成功地以循循善诱的口吻分享了最新进展的精髓,让众多读者能够理解和领会。
对于任何有兴趣了解AI芯片如何引领下一次工业革命的人来说,这本书都是必不可少的读物。
---- 蔡少棠(Leon O. Chua)
(本文编辑:佑生)
来源:百道网
北京百道世纪网络信息技术有限公司及其平行公司北京百道世纪教育科技有限公司下属的网络媒体平台百道网、百道网微信、帮书店微信,以及百道学习APP和小程序等平台上发布的文章,版权属于北京百道世纪网络信息技术有限公司所有,或北京百道世纪网络信息技术有限公司与著作权人共同拥有,严禁转载。任何纸媒、网媒或社交媒体需要发布或转载,请与版权专员联系(service@bookdao.biz),获得授权后,方可转载。对于任何未经授权的转载,我们将依法追究其侵权责任。
扫描二维码 分享文章
百道学习