܄

当我们在过春节时,人工智能在做什么?

【数据猿导读】 告诉大家一个好(or 坏?)消息,假期已经结束啦!据说,今日 忌狂欢,宜收心 。收心第一步,看看过年期间,人工智能领域都发生了些什么

当我们在过春节时,人工智能在做什么?

人工智能 又双叒叕战胜人类

1月30日,在宾夕法尼亚州匹兹堡的 Rivers 赌场,卡耐基梅隆大学 ( CMU )开发的人工智能系统 Libratus ,在共计 12 万手的一对一无限注德州扑克比赛中击败了四名顶级人类玩家 Jason Lee、Dong Kim、Daniel McAulay 和 Jimmy Chou,斩获 20 万美元奖金。 

Libratus 在德州扑克人机大战中获得最终的胜利,是人工智能领域的巨大成就。 在德州扑克的对局里,任意时间,任何一个玩家都只能观察到一部分的情况,所以在玩扑克的过程中需要推理能力,而这对于机器来说很难模仿。 现实世界中,不完美信息才是常态,各种看不见的隐藏信息产生了大量的不确定性,而德州扑克代表的就是这种类型的博弈。

阿法狗:抛弃人类棋谱套路

谷歌旗下 Deepmind 公司在德国慕尼黑的 DLD 创新大会上正式宣布,将推出真正的2.0版 AlphaGo。新版 AlphaGo 将正式摒弃人类棋谱,只靠计算机自身深度学习的方式成长——即探索“深度学习”方式的极限,臻至“围棋之神”的境界。2.0版的 AlphaGo,将通过数学模型下的自我对局和深度学习,下出真正属于人工智能(AI)的围棋。

在2017年开年,化身 Master 的 AlphaGo 风卷残云完成60胜,唯一一场平局还是因为对弈者掉线。当时“棋圣”聂卫平就表示:“围棋远不像我们想象的那么简单,还有巨大的空间等着我们人类去挖掘。阿法狗也好,Master 也罢,都是‘围棋上帝’派来给人类引路的。”而柯洁则说他一夜无眠,“人类千年的实战演练进化,计算机却告诉我们,人类全都是错的……”

既然人类的围棋智慧如今落入下风,那么人工智能会带来怎么样的围棋变革呢?

这个咖啡厅没有服务员 

近日,机器人咖啡师出现在旧金山一家 名叫“Café X”的 咖啡厅。你可以用手机、平板预定咖啡, 预定之后,Cafe X 发送一则消息到移动设备,上面有4位验证码,你在机器人贩售机中输入就可以。此时机器臂从8个加热站上抓取1个杯子,将其放在小架子上,然后你就可以取走咖啡了。整个过程耗时不到1分钟。

机器人律师来了

俄罗斯最大的银行——Sberbank 最近宣布他们将推出一个机器人律师,这个机器人的任务就是处理各种投诉信件。这项创新将导致大约 3000 名在银行工作的专家被炒鱿鱼。该银行于 2016 年第 4 季度推出机器人律师,并且将在 2017 年的头几个月里实现完全机器人化。

Sberbank 执行委员会副董事长 Vadim Kulik 表示:最终所有的常规法律文件的处理都将自动化,而只允许律师处理那些紧急的法律程序。

可以暂时松一口气了,因为机器人还没完全取代人类律师,不过离完全替代这一天还有多远呢?

AI 医生诊断癌症?

斯坦福大学的研究者开发出一个诊断皮肤癌的 AI 算法,并且诊断结果达专家水平,该研究的相关论文已经发表在 Nature 上。“在我们的实验中,通过学习,深层卷积神经网络可以由图像和疾病名称识别疾病。并且,结果可与通过职业认证皮肤科医生的诊断媲美。”

看到上面这些,有没有感到焦虑呢?

论跑,人跑不过马;论飞,人飞不过鹰;论力量,人更是不如老虎、狮子。但人有智力,所以高高站在生物链的顶端。而现在,人工智能开始在越来越多的领域超越人类,如果有一天人工智能完全超过人类,那么人类该如何自处?

焦虑是正常的,霍金不也常常警告我们说“人工智能或将威胁人类生存”嘛。

但也要保持乐观,聪明的人类可不会让自己处于这种境地。所以规范人工智能的发展势在必行。

这不,在1月初举行的 Benificial AI 2017会议上,1980名来自产业、学术和研究界的 AI 相关人士就共同制定了确保 AI 健康发展的“23条原则”。

确保 AI 健康发展的“23条原则”

研究问题

1. 研究目标:人工智能研究的目标应该是创造有益的智能,而不是让它像经历生物演化一样没有确定的发展方向。

2. 研究资金:投资人工智能应该附带确保该研究是用于发展有益的人工智能,包括计算机科学、经济学、法律、伦理和社会研究中的棘手问题,例如:

我们如何使未来的 AI 系统具有高度鲁棒性,这样才能够让它们在没有故障或被黑客入侵的情况下做我们想要它们做的事情?

我们如何通过自动化实现繁荣,同时不打破资源和目的的平衡?

我们如何更新法律制度实现更大的公平和更高的效率,跟上AI的发展步伐,管控与AI相关的风险?

AI应该具有怎样的价值观,应该具有何等法律和伦理地位?

3. 科学政策互联:AI 研究人员和政策制定者之间应该进行有建设意义、健康的交流。

4. 研究文化:应该在AI研究者和开发者中培养合作、信任和透明的文化。

5. 避免竞赛(Race Avoidance):开发 AI 系统的团队应积极合作,避免在安全标准方面进行削减。

伦理和价值观

6. 安全:AI 系统应该在整个使用周期内安全可靠,并在可行性和可用性方面有可验证的衡量标准。

7. 故障透明度(Failure Transparency):如果 AI 系统造成伤害,应该可以确定原因。

8. 司法透明度:任何涉及司法决策的自主系统都应对其判断提供合理的解释,并由主管人权机构审核。

9. 责任:先进人工智能系统的设计师和建设者是使用、滥用这些系统以及这些系统行动造成的道德影响的利益相关者,他们有责任和机会塑造这些影响。

10. 价值观一致性:在设计高度自治的人工智能系统时,应该确保它们的目标和行为在整个操作过程中与人类的价值观相一致。

11. 人类价值观:人工智能系统的设计和运行应与人类尊严、权利、自由和文化多样性的理念相一致。

12. 个人隐私:由于 AI 系统能够分析和利用人类产生的数据,人类也应该有权获取、管理和控制自身产生的数据。

13. 自由和隐私:AI 应用个人数据,其结果不能不合理地限制人类真实或感知到的自由。

14. 共享利益:人工智能技术应当惠及和增强尽可能多的人。

15. 共享繁荣:人工智能创造的经济繁荣应该广泛共享,为全人类造福。

16. 人类控制:应该由人类选择如何以及是否委托人工智能系统去完成人类选择的目标。

17. 非颠覆(Non-subversion):要控制先进的人工智能系统所带来的力量,应当尊重和改善社会健康发展所需的社会和公民进程,而不是颠覆这种进程。

18. AI 军备竞赛:应该避免在致命的自动武器开发方面形成军备竞赛。

长期问题

19. 能力注意(Capability Caution):在没有共识的情况下,应该避免对未来AI能力上限做出较为肯定的假设。

20. 重要性:先进 AI 可能代表了地球上生命发展历史的一大深刻变化,应该通过相应的关怀和资源对其进行规划和管理。

21. 风险:人工智能系统带来的风险,特别是灾难性或有关人类存亡的风险,必须遵守与其预期影响相称的规划和缓解措施。

22. 不断自我完善(Recursive Self-Improvement):对于那些不断自我完善或通过自我复制以能够快速提高质量或数量的AI系统,必须采取严格的安全和控制措施。

23. 共同利益:超级智慧只应该为广泛共享的伦理理想服务,为了全人类而不是一个国家或组织的利益而发展。

相比1940年阿西莫夫提出的“机器人三原则”,这23条原则显得更为实际、具体。当然,规范人工智能发展之后并不意味着我们可以高枕无忧,我们个人还是应该为人工智能时代的到来做好准备。

—— 人工智能时代,你该怎么做?

—— 终身学习, 与时俱进!


来源:搜狐科技

声明:数据猿尊重媒体行业规范,相关内容都会注明来源与作者;转载我们原创内容时,也请务必注明“来源:数据猿”与作者名称,否则将会受到数据猿追责。

刷新相关文章

人工智能将为亚洲带来巨大影响
人工智能将为亚洲带来巨大影响
2017未来医疗科技大会暨人工智能前沿高峰论坛即将召开
2017未来医疗科技大会暨人工智能前沿高峰论坛即将召开
前百度首席科学家吴恩达:为什么我说人工智能会是划时代的变革?
前百度首席科学家吴恩达:为什么我说人工智能会是划时代的变革?...

我要评论

精品栏目

[2016/10/10]

大数据24小时

More>

[2016/09/26-7]

大数据周周看

More>

[2016/09/01-30]

大数据投融资

More>

[2016/11/28-2]

大咖周语录

More>

[2016/11/29-6]

大数据周聘汇

More>

[2016/12/06-13]

每周一本书

More>

返回顶部