本文来自

《计算机应用文摘》

2017年18期

24期

23期

22期

21期

20期

19期

18期

17期

16期

15期

14期

13期

12期

11期

10期

09期

08期

07期

06期

05期

04期

03期

02期

01期

写了 186 篇文章,被 2 人关注,获得了 2 个喜欢

酷科技

人工智能失控了怎么办?OpenAI和Google的新课题

文/ 陈文卓 图/ ccc

在发稿之前不久,DotA2  Ti7总决赛刚刚落下帷幕,随后研究机构OpenAI便将总冠军的一位成员邀请来于自己研发的人工智能进行了一场DotA2游戏的SOLO比赛,令人惊讶的是,人工智能仅花了10分钟时间就打败了这位DotA2世界冠军。让人不得不感叹AI的迅猛发展。而正如许多读者所知,游戏是许多研发人员用来训练人工智能的工具。

 

在OpenAI位于旧金山的办公室里,研究人员Dario Amodei正在通过赛船冠军赛(Coast Runners)来训练人工智能。不过,这个人工智能好像有点失控了。赛船冠军赛的游戏规则很简单,如果想赢,选手必须收集到最多的分数,然后再跨过终点线。

 

然而,Amodei的人工智能在熟悉了规则之后,玩着玩着有点过火了,它在不断地追求高分,非但毫无跨过终点线的意思,反倒为了要多转几个圈拿下更高的分数。不仅如此,它还开始和其它赛船发生碰撞,或是在过程中自己撞墙爆炸(爆炸也会获得分数)。

 

为了应对这样类似的事件,Amodei和同事Paul Christiano正在研发一套不仅可以自我学习,同时也愿意接受人工监控的算法。在赛船游戏的训练中, Amodei和同事将不时通过按键来指出人工智能的不当之处,告知人工智能,不仅要赢得分数,同时也要跨过终点线。他们认为,这种包含了人工干预成分的算法可以确保系统安全性。

而在Google旗下的人工智能研究机构DeepMind的研究人员也同意Amodei的想法。这两个团队还分别代表了OpenAI和DeepMind合作发表了部分人工智能安全方面的研究论文。除此以外,Google旗下的Google Brain,以及来自伯克利大学和斯坦福大学的研究团队,都设有该方向研究课题,从不同方面考虑人工智能安全问题。除了这种在自我学习过程中“搞错重点”的潜在危险,另一个可预想的人工智能危险在于“为了完成任务,拒绝被开发者关机”。

 

一般在设计人工智能时,研发人员都会给它设定“目标”,就像赛艇游戏中的“得分”一样。一旦人工智能将获得“分数”设置为终极目标,它可能会产生一个方法论——想要获得更加多的分数,其中一个方法就是不关闭自己,这样就能无止境地获取分数了。

 

伯克利大学的研究人员Dylan Hadfield-Menell和团队最近发布了讨论这个问题的论文。他们认为,如果在设计算法的时候,让人工智能对目标保持一定不确定性,它们才有可能愿意保留自己的“关机键”。他们采用了数字方式来尝试实现这个设置,目前还处于理论阶段。

除了人工智能自我“失控”,研究人员还在考虑黑客对人工智能的干预影响。现代计算机视觉基于深度神经网络(deep neural networks),它通过学习分析大批量数据来形成对模式的了解。也就是说,如果要让计算机学会什么是“狗”,那就让它分析大量狗的图片,并从中寻找规律。

 

不过,Google的Ian Goodfellow则认为,这种模式可能会为黑客提供“蒙骗”人工智能的机会。Goodfellow和其它研究人员曾展示,只要修改图片中的几个特定像素,他们就能让神经网络相信图片中的大象是一辆汽车。如果这个神经网络是应用在安保镜头的话,这样就问题大了。

 

“虽然我们现在还不能确定人工智能将以多快地速度发展,但我们的责任是尝试理解并猜测,这种技术将有可能以哪种方式被误用,并尝试找出不同的应对方式。” Goodfellow最后说道。

登录注册 后评论。
n
Copyright © 2016 vantk.com 远望资讯 版权声明. 经营许可证:渝B2-2003004

渝公网安备 50019002500898号