在人工智能如火如荼的今天,芯片研发日益受到关注。芯片作为人工智能上游产业,是人工智能发展水平的标志。掌控核心芯片架构的先发优势,在此基础上迅速建立生态体系是人工智能时代成功的关键。
芯片按照其功用有承担电源输出控制的,有承担音频视频处理的,还有承担多种复杂运算的。在人工智能领域,算法必须依托芯片才能够顺利运行。各个芯片在不同场景的计算能力不同,算法的处理速度、能耗也有很大差异。目前,全球知名芯片制造商都在大力研发适应深度学习的功能更强、算法更快、体积更小、功耗更低的芯片。在全球人工智能前沿领域,我们可以把与深度学习需求相关的芯片分为GPU、FPGA、ASIC等主要类型。
纵观全球AI领域,美国一直是技术和市场的领导者,以下我们不妨看看美国同行在人工智能芯片上的作为。
一、NVIDIA
NVIDIA作为GPU 行业的领头羊,在全球人工智能芯片领域具备明显的先发优势。NVIDIA创立于1993年1月,是美国一家以设计智能芯片组为主的无晶圆(Fabless)IC半导体公司,也是全球图形技术和数字媒体处理器行业的领导厂商。NVIDIA的GPU 是图像处理的行业龙头,GPU 芯片的同步并行运算非常适用于人工智能的深度学习和神经网络。作为一家专业的图形处理芯片公司,Nvidia在1999年发明图形处理器GPU,从此GPU就深刻改变了世界。特别是在游戏领域,NVIDIA 的GPU几乎已经成了游戏设备的标配。如今,NVIDIA获得超过7300个专利,其中包括很多对现代计算有深刻影响的技术。德国大众为旗下的奥迪汽车引入新式导航系统,并首次采用NVIDIATegra片上系统处理器。相比于2009年初的多媒体交互系统(MMI),新的Tegra核心导航系统更加出色,不但功能上更强大,效果更出色。2016 年8 月,NVIDIA推出首台深度学习超级计算机NVIDIA DGX-1。2017 年4 月,NVIDIA宣布全新数据中心加速器Tesla P100 已经供货,Tesla P100计算卡面向人工智能、自动驾驶、气候预测、医药开发等专业领域。2016年,NVIDIA的股价上涨了228%,过去的5年内累计上涨500%。500亿美元的市值将会持续给NVIDIA带来40倍的市场收入,这几乎是业内拥有最高收益的公司。
二、Google
Google为其深度学习神经网络打造基于ASIC 的专用Tensor Processing Unit 芯片。该TPU 芯片也用于AlphaGo 的系统中。ASIC 是专用 集成电路 ,具有体积更小、功耗更低、性能提高、保密性增强、成本低等优点。TPU 目前在Google主要用于:1.机器学习系统RankBrain,用于帮助Google处理搜索结果;2.街景StreetView,用于提高地图与导航的准确性;3.围棋人工智能AlphaGo,其最初版本使用48 个CPU+8 GPU,对战樊麾时升级到1202 CPU+176 GPU,对战李世石时升级至TPU 版本。
Google的TPU软件引擎驱动着Google的深度神经网络,硬件和软件组成的网络可以通过分析海量数据学习如何完成特定任务。虽然GPU在设计上很适合用于运行驱动深度神经网络所需的计算任务,但Google认为如果使用定制芯片可以进一步提高效率。Google结合机器学习的具体需求对TPU的规格进行了调整,用更少量事务就可以运行每一步操作。这意味着这样的芯片每秒钟都能执行更多操作。
目前Google同时使用TPU和GPU运行自己的神经网络。
三、Apple
Apple此前一直研发一款专门处理人工智能相关任务的芯片——Apple Neural Engine,芯片将能够改进Apple设备在处理需要人工智能任务时的表现,比如面部识别和语音识别等。目前,Apple在其设备(iPhone 和 iPad)上主要使用的是 A 系列的处理器和功能强大的 GPU 来完成大量的计算任务。一款强大的,专业的人工智能芯片可以让Apple在本地设备上进行更复杂的处理任务,同时进一步保证了其隐私方面的优势。iPhone X 采用定制的芯片来处理人工智能工作负载。iPhone X采用的定制芯片是一个双核的“A11生物神经网络引擎”(A11 bionic neural engine)芯片,每秒运算次数最高可达6000亿次。该芯片使Face ID身份认证功能能够快速识别人脸,从而解锁iPhone X或进行购物。iPhone A11配备专门神经芯片意味着主芯片工作量将减低,同时手机摄像头对物体识别将成为能耗更低的应用,这是自iPhone7之后安装FPGA芯片探索AI任务的主要目的。Apple将计算机生成的合成图片作为训练神经网络的数据源,这意味着终端将应用计算机机视觉技术对于真实图片进行标签和注释,这无疑是人工智能应用的巨大创新。
四、Qualcomm
针对人工智能的时代大潮,Qualcomm开发了神经处理引擎。这是一个基于软件开发的工具包(SDK),可帮助开发人员优化其应用程序,可在Qualcomm骁龙Snapdragon 600和800系列处理器上运行AI应用程序。这意味着,如果用户正在构建使用AI(例如图像识别)的应用程序,则可以集成Qualcomm的SDK,并且在具有兼容处理器的手机上运行速度更快。Qualcomm公司2016年前首次宣布推出神经处理引擎,作为Zeroth平台的一部分。从2016年9月起,Qualcomm就一直在与几个合作伙伴一起开发SDK,并于近期宣布开放SDK,供所有人使用。Qualcomm首款整合其SDK的公司是Facebook,目前正在使用它来加速其移动应用程序中的增强型现实过滤。Qualcomm对外宣称,通过使用自身的神经处理引擎,Facebook的过滤器速度比通用CPU实现方案要快五倍以上。
五、Intel
Intel是 PC 时代计算芯片领域毫无争议的超级霸主,而智能手机时代到来后,Intel失去了在智能手机领域里的话语权。2016年11月,Intel花费4亿元收购一家创业公司Nervana。Intel称,与图形芯片相比,Nervana 技术可以使深度学习系统运行速度提升100 倍,计划2017 年销售集成Nervana 技术的芯片,在深度学习市场挑战NVIDIA优势,Intel计划在自己的处理器中整合Nervana 芯片和软件。同时,Intel收购FPGA生产商巨头Altera,研发基于FPGA技术的人工智能芯片。
六、IBM
2004年,IBM开始研究“大脑”芯片。2009年,IBM计算机已经能够模拟猫的大脑。从2008 年IBM开始研究能模拟人类大脑的芯片项目。2011年,IBM开发出原型芯片,它有256个数字神经元,能够识别模式。2014 年推出首个基于SyNAPSE 打造的TrueNorth芯片,该芯片内置。100 万个模拟神经元和2.56 亿个模拟神经突触。2016 年5 月,IBM 发布了一项量子计算云服务,每个人都可以使用其5 量子位量子计算机。TrueNorth的能耗很低,现有服务器安装的是传统芯片,比如GPU、CPU和FPGA,它们也可以识别图像和语音。TrueNorth 芯片与众不同的是同时具有传统的同步部分(接口和时序)和异步部分(大脑式架构)。由于使用异步逻辑,功耗仅为70mW,而同结构的54 亿个并联晶体管会消耗50-100W。为了使神经元构成任意至任意的连接结构,芯片上有庞大的交叉开关,用于将芯片上54亿个晶体管的神经元连在一起。不久前,IBM 宣布将在今年年内推出全球首个商业“通用”量子计算服务IBM Q,为50 量子bit 的计算机,比之前推出的5 量子位计算机大10 倍,且可以胜任许多传统计算机无法完成的工作,据称其将加速药品开发以及科学新发现。
IBM还在开发量子计算机,其它一些机构和企业也在开发人脑模拟芯片,比如惠普(Hewlett Packard Enterprise)、斯坦福大学、德国海德堡大学、英国曼彻斯特大学。
七、Microsoft
微软把重心放在FPGA人工智能芯片上,目前FPGA 已经被应用在Bing搜索的支持上,基于神经网络推动新的搜索算法,执行速度比传统的芯片会快很多倍,只需要24ms 就可以实现搜索,规避了以往长达四秒搜索空白的尴尬。其FGPA 同样能够支持微软的云计算服务Azure,未来微软全球的数百万部的服务器将会应用FPGA。同时微软推出基于FPGA 技术的视觉芯片A-eye,使得摄像头具有视觉理解能力。FPGA 的输入到输出之间并没有计算过程,只是通过烧录好的硬件电路完成信号的传输,因此运行速度非常高,可达CPU 的40 倍。目前的摄像头主要完成记录、存储等功能,在摄像头上加入A-Eye 视觉芯片,就可以让摄像头具有视觉理解能力。A-Eye 可以广泛应用在智能安防,婴儿和老人看护,战场机器人,汽车和无人机等各种需要视觉智能的领域。
我们应该看到,在人工智能领域,谁垄断了芯片技术,谁就掌控了行业话语权!
免责声明:本文来自超天才网客户端,不代表超天才网的观点和立场。文章及图片来源网络,版权归作者所有,如有投诉请联系删除。