AI开始进入大规模应用的下一步究竟是什么
2017 年的 Hot Chips,Google 著名的架构师,有诸多传奇和段子的“程序员之神”Jeff Dean,在大会做了“Recent Advances in Artificial Intelligence via Machine Learning and the Implications for Computer System Design (基于机器学习的人工智能最新进展及其对计算机系统设计的影响)”,足够说明 AI 真正地进入了主流应用,大家都开始关注 AI 最新的进展以及如何去针对性进行系统设计。 2018 到 2019 年的几个 Keynote 都和 AI 没有什么关系。2018年芯片行业重大的新闻是 Intel CPU 被发现了 Spectre 和 Meltdown 两个重大的漏洞,因此 Keynote 邀请了 John Hennessy 教授专门讲解两个漏洞以及处理器的安全性问题;同年,赛灵思新任总裁兼 CEO Victor Peng 就任,推出了 ACAP (Adaptive Computing Acceleration Platform, 自适应计算加速平台) 架构,也受到极大关注,因此也受邀到大会做 Keynote。2019 年,大家最关心的问题是摩尔定律是否还能延续,也因此邀请了 AMD CEO Lisa Su 与斯坦福大学教授、时任台积电研究 VP 的黄汉森教授分别介绍他们的观点。 今年的 Keynote,Hot Chips 邀请了 DeepMind 的杰出工程师 Dan Belov 做了题为”AI Research at Scale - Opportunities on the Road Ahead ( 大规模的人工智能研究——未来的机遇 )”的报告,为大家介绍未来 AI 研究可能带来的新机会。Dan Belov 的报告,完全没有提计算机视觉、语音识别等已经进入规模应用阶段的算法,而重点给大家介绍了强化学习及其在机器人领域、围棋、图形学等领域应用的进展。Dan 指出,从 2012 年的 AlexNet 到现在,算法效率提升了 44 倍(即达到同样精度的计算量),而算法的总计算量规模提升了 30 万倍,我们还有很多工作要做才能填补这近 10000 倍的差距,因此我们还需要关注全系统设计、考虑经济性问题、在软件架构领域应用更多机器学习的最新技术。 回到一个更本质的问题,如黄汉森教授在去年的 Hot Chips Keynote 中所说,半导体技术的发展很大程度上由重要的应用驱动,因为我们需要去理解和预测未来的新应用——这也是为什么会邀请做算法的企业 DeepMind 来一个芯片的行业峰会做 Keynote 的原因。从 20 世纪 40 年代的无线电,到 70 年代的计算机,到 90 年代的 PC 和互联网,到 21 世纪前 20 年的手机与移动设备,再在现在这个时间点,移动的市场趋于饱和,AI 开始进入大规模应用,理所当然大家也都在思考,下一步究竟是什么?是机器人,是 AR,亦或是脑机接口? 结语 AI 芯片不是技术游戏。 对于这类平台,一方连接的是供给方,一方连接的是需求方,当经过发展,供需双方的数量达到了一定的临界值之后,平台就不需要再付出特别大的成本而可以获得用户规模的自然增长,如图4所示。平台几乎可以说是模式最牢固、收益最高的商业模型了,如大家熟知的淘宝、微信、大众点评、美团外卖、拼多多、抖音、快手,都是这一类。 而对于 AI 芯片,大家总是讨论技术,但实际上要做的远远不止技术。当有了足够多的开源项目,在用户初次接触 AI 芯片时,就有更高的几率使用你的芯片,而之后他又可能继续贡献更多的开源项目,实现正循环。也因为此,赛灵思越来越重视软件生态,越来越重视开发者,推出了 Vitis 这样面向所有类型开发者的软件平台,并且把开发者生态作为重点领域持续推进。 (编辑:应用网_阳江站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |