加入收藏 | 设为首页 | 会员中心 | 我要投稿 常州站长网 (https://www.0519zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

Stuart Russell:可证明有益AI的三大原则|GMIC确认嘉宾

发布时间:2021-08-30 15:46:03 所属栏目:大数据 来源:互联网
导读:美国加州大学伯克利分校(UC Berkeley)计算机科学教授 Stuart Russell 被视为人工智能领域的领先人物,他负责带领伯克利的人类兼容人工智能中心(Center for Human-Compatible AI,CHAI)。 他与 Google 研究总监 Peter Norvig 合著的《人工智能:一种现代
美国加州大学伯克利分校(UC Berkeley)计算机科学教授 Stuart Russell 被视为人工智能领域的领先人物,他负责带领伯克利的人类兼容人工智能中心(Center for Human-Compatible AI,CHAI)。
 
他与 Google 研究总监 Peter Norvig 合著的《人工智能:一种现代方法》(Artificial Intelligence: A Modern Approach)被全球超千所大学选择为标准教科书。2019年,他的新书《人类兼容:人工智能及其控制问题》(Human Compatible:Artificial intelligence and The problem of control)再次引发全球关注。
 
Stuart Russell 教授将作为 9 月 25 日 GMIC 在线 Pro-美国·硅谷站的开场嘉宾,就「人工智能与人类如何兼容?」发表主题演讲,全面分析“AI”和“人类”的兼容关系。
 
 
 
那么,Stuart Russell 对于 AI 的发展都有那些观点,他担心什么、提倡什么、以及正在做什么?希望下文能让你快速认识他。
 
如果我们成功了呢?
 
1995 年,Stuart Russell 写了有关 AI 的书。他跟 Peter Norvig 合著的《人工智能:一种现代的方法》成为全世界最受欢迎的课程教材之一。在最后一章的最后几页,作者自己提出了一个问题:如果我们成功了该怎么办?也就是说,如果我们实现自己的目标,世界会发生什么样的改变?不过他们的答案几乎算不上认可。他们的答案是:“这种趋势似乎并不算太消极。”
 
其实在“ AI 与人类”这一问题上,Stuart Russell 本人始终倡议发展友善及安全的 AI。2015 年,他曾起草并率先在一份旨在呼吁学者多方面考虑人工智能研究的公开信上签字,信中指出:「我们建议扩大人工智能研究的范围,目的是确保日益强大的人工智能系统是稳定和对人类有益的」「坚持 AI 发展应基于社会利益,而不是一昧冒进打造强大的机器,其中最令人忧心的就是发展自主武器」。
 
这封公开信得到了来自全球 7000 多名学者与业界人士的支持,其中包括谷歌、Facebook、微软等科技巨头的核心人工智能研究者,以及全球顶尖的计算机科学家、物理学家和哲学家。
 
同年,他也受邀在《特定常规武器公约》(Convention on Certain Conventional Weapons,CCW)大会上提供专家证词。他认为:“ AI 及机器人界必须采取立场,就像物理学家在面对核武、化学家或生物学家在使用化学或病毒武器一样.....什么都不做,就等同是投下赞成发展的一票。”
 
人工智能就好比核武器
 
那么,Stuart Russell 对于“人工智能与人类未来”的担心,到底是什么?何以至于,他无数次的在各个平台发声以及通过写书的方式不断诠释自己的想法。
 
在 Stuart Russell 曾接受的一场采访中,涉及到了一些,他在担心什么的表达。我们摘录了这场采访中的四个问题,如下:
 
Q你认为人工智能演变成灾难可能的途径是什么?
 
Stuart Russell:最典型的情况就是明显或者隐含的价值体系失调:人工智能系统被赋予的目标难以完全考虑和计算人类所关心的目标要素。
 
各个公司想要取得巨大技术优势的方法是多种多样和纷繁复杂的,国家之间也想尽力在敌国之前建立人工智能系统,或者以一种温水煮青蛙的方式渐渐使得我们变得越来越虚弱,不得不依赖人工智能才能生活下来,就像 E. M. Forster的科幻小说《机器休止》(The Machine Stops)。
 
Q阻止人工智能大灾难需要做些什么?
 
Stuart Russell:首先,需要对技术方法潜在的风险和进展进行研究,消除风险。第二,调整AI和培养学生的目标,以使 AI 系统遵循人类的目标成为本领域内最重要的事,就像遏制在核聚变研究中很重要一样。
 
Q但是在我们发展核聚变的同时,已经有了原子弹。但人工智能危险只是出于推测中,那我们是否真的处于人工智能「核聚变」的阶段?
 
Stuart Russell:1939年,利奥·西拉特(Leo Szilard)在证明核链式反应后写道:「我们把一切都关掉,回家了。那天晚上,我毫不怀疑,世界正走向悲痛。」那些说:「嗯,我们可能永远都达不到人类水平的 AI 或超级 AI 。」我会回答:这就像开车直向悬崖边,然后说,「让我们祈求汽油尽快被烧完!」
 
Q我们应该像监测易裂变物质(核燃料)一样监测AI研究吗?谁负责此类的监管?
 
Stuart Russell:我认为正确的做法是把问题直接建立到从业者如何定义他们所做的事上。土木工程从业者没有谁会谈到「搭建不会倒塌的桥梁」他们只说「搭建桥梁」。基本上所有的核聚变研究者都认为遏制核武器是理所当然的事;不受限制的聚变反应对人类无益处。
 
所以,我们要从现在起聚焦在「可能有益的AI」上,今后才能单用「AI」来概括对人类有益的AI。这个领域目前致力于建立纯粹的智能,而不顾它们的目标和可能带来的后果。我们应该摒弃这样的想法,重新规划目标。
 
做更好、更安全的AI
 
2019年,Stuart Russell 的新书《人类兼容:人工智能及其控制问题》,再次回到了上本书最后的那一个问题:如果我们成功了呢?
 
这次,他不再退缩。
 
在书中,他有一章谈到滥用 AI 可能会出现的不好之处。Russell 认为在 AI 安全和监管方面没有取得重大进展的情况下,会出现混乱局面。
 
现在,Stuart Russell 的实验室致力两件事,一是打造更好的 AI(making AI better),另一个是打造安全的 AI(making AI safe)。”
 
关于打造安全的 AI 部分,他成立了人类兼容人工智能中心并专门写了《人类兼容:人工智能及其控制问题》一书。以此,来试图防止长期发展 AI 所可能产生不可控制、负面的问题出现,以及确保聚焦 AI 对人类社会有益。
 
Stuart Russell 还表示,他们要开发一个可证明有益人工智能的方法(provably beneficial AI),并且基于三大原则:
 
第一个原则是利他主义(Altruism),机器人唯一的目标就是用尽全力实现人类的目标。二是谦逊法则(A law of humility),机器知道它需要讲人类价值最大化,但它不知道这价值究竟是什么。三是机器人的工作是要了解更多人们的需求,让它们观察人类进而学习,也可以透过阅读书籍、看电视等方式来达到。
 
目前,全世界成千上万最最聪明的头脑都在开发AI。制造比人类更智能的机器可能是人类史上最重大的事件,也或许是最后一件事。
 
而关于“ AI 与人类未来”,也正有许多艺术试图描述各种可能的想象,比如电影。身为 AI 专家,Stuart Russell 认为电影《星际穿越》中拥有最好的人工智能,主要是基于两个理由:一、因为戏里头的 AI 机器人完全只执行人类下达的指令,甚至会为了救援人类而牺牲自己;二、一个很重要的原因是它们长得不像人。
 
人工智能到底该如何定义,它的边界是什么?2020年,最受关注的 AI 影像作品是 HBO 刚播出结束的《西部世界》第三季。在这部剧里,机器人与人类外型一模一样,并且正开始反击人类。
 
参考资料:
 
1.Stuart Russell:人工智能就好比核武器
 
2.新书《Human Compatible》书评:AI与我们的未来
 
3.Stuart Rusell 专访:斯坦福百年报告否定人类水平 AI,不可理喻
 
4.专访人工智能大师 Stuart Russell,AI 现阶段瓶颈:人类不清楚怎么让机器做长时间尺度的决策
 
Stuart Russell 已确认参加「GMIC 在线 Pro」, 并发表:「人工智能与人类如何兼容?」的主题演讲。

(编辑:常州站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读