加入收藏 | 设为首页 | 会员中心 | 我要投稿 常州站长网 (https://www.0519zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长资讯 > 外闻 > 正文

机器学习领域的杀手级应用?

发布时间:2021-03-07 13:24:00 所属栏目:外闻 来源:互联网
导读:从未想到过的技巧,神经网络就是其中之一。他说。 变得更有效率 LeCun这个月在全球最大的机器学习研究会议NeurIPS上的EMC2节能机器学习研讨会上发表了讲话。他谈到了硬件局限性如何限制研究人员的想象,并表示好的想法有时候会在硬件太慢、软件不易获得或实

从未想到过的技巧,神经网络就是其中之一。”他说。

变得更有效率

LeCun这个月在全球最大的机器学习研究会议NeurIPS上的“EMC2节能机器学习”研讨会上发表了讲话。他谈到了硬件局限性如何限制研究人员的想象,并表示好的想法有时候会在硬件太慢、软件不易获得或实验难以重现时被抛弃。

他还谈到了特定的深度学习方法,例如差分联想记忆和卷积神经网络,它们构成了挑战,可能需要新的硬件。差分关联存储器(软RAM)是一种计算方法,目前已在自然语言处理(NLP)中广泛使用,在计算机视觉应用程序中也越来越常见。

“未来几年,深度学习和机器学习架构将发生很大变化。你已经可以看到很多这样的情况了。现在有了NLP,城里唯一的游戏基本上就是变换网络(Transformer networks)。”他说。

他补充说,更有效的批处理和自我监督学习技术,可以帮助AI像人类和动物一样学习更多,也可能有助于提高AI的能效。

在LeCun演讲之后,麻省理工学院的电气工程与计算机科学副教授Vivienne Sze谈到了需要一种系统的方法来评估深度神经网络的需求。SlidesLive报道称,在本周早些时候,Sze关于高效深度神经网络的演讲是这次NeurIPS视频中备受关注的一个,获得了相当多的点击率。

Sze说:“更大更远的存储器往往会消耗更多的电量”, 并指出“所有权重都不相等。” Sze还演示了Accelergy,这是MIT开发的一种能够估算硬件能耗的框架。

除讲座外,研讨会的海报发布会还展示了值得注意的低功耗AI解决方案。其中包括DistilBERT,这是谷歌BERT(Bidirectional Encoder Representations from Transformers)的轻便版本,后者是Hugging Face团队特别为在边缘设备上快速部署而制造的;以及SRI International和Latent AI对深度神经网络的量化比较。

许多知名人士呼吁机器学习社区应对气候变化,并表示这种关

(编辑:常州站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读