AI开始进入大规模应用的下一步究竟是什么
从 Hot Chips 32 看最新 AI 产品趋势 Hot Chips,全球高性能芯片领域最负盛名的业界盛会!虽受疫情影响,本届 Hot Chips 会议报告质量依然非常之高,涵盖范围也非常之广。在 Tutorial 部分,有来自于 Google TPU 团队、Cerebras、百度的机器学习训练专题,也有来自于 Google、IBM 等的量子计算专题。会议正式内容分为 8 个 Section,包括服务器处理器、移动处理器、边缘计算和传感、GPU 和游戏架构、FPGA 和可重构架构、网络和分布式系统、机器学习训练,以及机器学习推理。受限于文章篇幅,本文将主要讨论和机器学习相关部分的产品与趋势。 趋势一 互联网公司自行开发的芯片明显增多。百度有昆仑,阿里有含光。未来自己的客户到底在哪里,公司出路在哪里?留给创业公司的空间还有多少? 百度是 Hot Chips 的常客:在主任架构师欧阳剑的带领下,其基于 FPGA 开发的 Software-Defined Accelerator(SDA,软件定义加速器)、面向于多种实际应用的 XPU 都已经在 Hot Chips 进行过报告。本次百度展示了去年在三星使用 14nm 工艺流片的昆仑芯片。 阿里巴巴在最近几年也在基础架构、芯片开发上投入巨大。去年阿里巴巴达摩院团队的张健松博士在 Hot Chips 发布了基于 FPGA 的新一代语音合成芯片 Ouroboros,今年阿里更是有两个报告入选,其中就包括由焦阳(骄旸)领导开发的含光 800 NPU。 同是互联网公司开发的 AI 芯片,百度昆仑和阿里含光 800 差异非常大,但各有优势。百度昆仑重点强调通用性,其峰值性能 256 INT8 TOPS/150W 的指标虽然不那么突出,但是能够支持搜索引擎、计算机视觉、NLP、语音识别等多种模型。含光 800 性能指标非常突出,使用台积电 12nm 工艺,实现了 825 INT8 TOPS/280W 的能效比,但是因为没有外接存储,其所能使用的模型有限,目前披露的数据基本都是针对 ResNet-50 的。 无论两颗芯片的差异如何,值得注意的是,阿里与百度,包括很多互联网公司都有在布局云端 AI 芯片: 腾讯一方面战略投资了由曾在 AMD 任职多年、也曾在锐迪科(RDA)担任 CEO 的赵立东师兄创立的燧原科技;而另一边,腾讯也在悄悄招兵买马,布局自己的 AI 芯片; 字节跳动极其低调地战略投资了一家 AI 芯片公司,该公司也于今年初获得了红杉中国的 A 轮融资。至此老互联网三巨头 BAT 和新兴互联网公司中最大的字节跳动,都已经有了自己的 AI 芯片嫡系部队。而这其中任何一家自身对 AI 芯片的需求,成本和收益之比都不足以支撑一颗 7nm 芯片的开发。 在云端 AI 芯片市场,除了英伟达这样的垄断者,也有英特尔、赛灵思这样的资深巨头玩家加入。国内除了上述提到的互联网公司自研或关系紧密的企业之外,还有寒武纪、壁仞、登临等企业参与到竞争之中。尽管快手、拼多多、美团、滴滴这样在近些年快速上升的互联网企业还没有看到公开的 AI 芯片布局,但是也不排除他们在未来通过战略投资等方式进行布局。中国云端 AI 芯片的市场正在被快速瓜分,在未来,即便存在有第三方独立 AI 芯片企业的机会,整个市场也可能只能支撑一家这样的公司——所有相关的企业都必须思考,未来自己的客户到底在哪里,公司出路在哪里? 趋势二 下一代计算技术得到更多关注。单纯架构上的变化,很难实现简单、便捷、低成本。模拟计算,存内计算,量子计算,光子计算, 谁将成为“破坏性创新”的源泉? 在2018年之后,基于传统数字集成电路的 AI 芯片研发进展开始变得缓慢,已经很难见到特别新鲜的想法和前所未有的微架构了。一方面,这是因为面向视觉和语音识别等领域的深度算法迭代幅度开始变小,没有那么多新的问题需要去解决。另一方面,AI 芯片也无非是一个特殊领域的 ASIC,很多解决过往问题的思路都可以迁移过来,好的金矿也率先都被挖出来了。因此,在过去两年,我们看到数字 AI 芯片的进步更多是和业务结合(如互联网公司造芯、特斯拉的自动驾驶芯片),或者利用一些新的平台型技术(如 HBM、Chiplet、Wafer-Scale Chip),微架构也在升级,但没有特别突出的大变化。 而更本质的问题在于,大家原本寄希望于 AI 芯片领域诞生“破坏性创新”或者“颠覆式创新”的机会,目前看起来很难实现。如图 1 所示,破坏性创新是指一种简单、便捷、成本低的新型技术,虽然早期达不到客户需求的性能,但其会逐步提升,直到满足客户需求、形成对传统技术的颠覆。而芯片领域,流片成本越来越高,在 7nm 节点达到了 1 亿美金以上,如果没有大量订单支撑摊薄成本一般企业根本无法承受。因此,在 AI 芯片领域变成了:公司越大,芯片卖得越多,芯片越便宜。单纯架构上的变化,很难实现简单、便捷、低成本,难以成为“破坏性创新”的源泉。 在这种情况下,越来越多的新技术路线得到关注,比如模拟计算,存内计算(in-memory computing),光计算等等。在去年的 Hot Chips,来自于一家法国创业公司 Upmem 和普林斯顿大学贾弘洋博士的两篇存内计算报告被录用就是有力的佐证。 本次 Hot Chips 的 Tutorial 选择了一条未来极其重要的计算路线:量子计算。4 个报告其中有两个来自于去年实现了“量子霸权(Quantum Supremacy)”的 Google 量子计算团队,还有两个报告分别来自 IBM 团队和 Intel 团队。但尽管量子计算得到很大的关注,但距离实用还非常遥远,个人认为至少在 10 年以上。如图 2,来自于 Intel 量子计算团队的 James S. Clarke 所言,实现了 50 个 qubit,只是完成了概念验证,未来要实现商用,如进行密码破解,需要实现超过 100 万个 qubit,这里还有很长的路要走。 孵化自 MIT 的 Lightmatter 团队介绍的光子计算方案,相比而言更加接近实用。利用一种 MEMS 工艺制造的 Mach Zehnder 干涉仪(简称 MZI),光子计算将传统的乘法转化为光路的相位调制与干涉,可以在几乎不耗能的情况下完成计算。但是,MZI 本来还是会对信号有一定的损耗,因为如果光路经过多个级联的 MZI,光路损耗的程度可能使得最终结果出错,也因此没法做到特别大的计算阵列。同时,光子计算还存在的一个问题是,仍然需要去解决 memory wall,因为 MZI 只是代替了乘法器。 值得一提的是,MIT 光子计算团队实际上孵化了两家创业企业,除了 Lightmatter,还有其中的华人团队创立的 Lightelligence(也被称为 LightAI,曦智科技)。在这里也希望 Lightelligence 能够越做越好。 趋势三 Keynote 再次回到 AI 算法与应用。AI 开始进入大规模应用的下一步究竟是什么,机器人,AR,亦或是脑机接口? Hot Chips 作为芯片行业最巅峰的盛会,其 Keynote 的选择,也代表了行业里大家当前最关注的方向。 (编辑:应用网_阳江站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |