打造新闻资讯第一网!

帮助中心 广告联系

河南电视新闻网

热门关键词:

人赢不了人工智能,那俩人工智能打起来谁赢?

作者:admin 人气: 发布时间:2017-02-25
摘要:[ 摘要 ]当不同的AI相遇,并且处于较复杂的系统中,它们更多是选择对立还是合作?答案是两者都会,但一切以最终收益为目标。 The Verge中文站 2月10日报道 人工智能(AI)近年来发展

[摘要]当不同的AI相遇,并且处于较复杂的系统中,它们更多是选择对立还是合作?答案是两者都会,但一切以最终收益为目标。

人赢不了人工智能,那俩人工智能打起来谁赢?

The Verge中文站 2月10日报道

人工智能(AI)近年来发展迅猛,未来很可能会在人类社会扮演更重要的角色,比如管理交通信号灯甚至是管理一个国家的经济。不过,有一个问题似乎尚未解决:如果两个AI算法的目标不同甚至冲突,当它们集中在一个系统里,会是选择合作还是对立呢?

谷歌的AI子公司DeepMind一直在积极探索关于AI的各种问题,近日便针对该问题进行了测试并发表结论。如果说AI的终极目标是完全像人类那样思考,那么就会遭遇“囚徒困境”(两个囚徒如果都不互相揭发、则对双方来说均最为有利,但由于不信任,两者更倾向于互相揭发)。从某种程度上来说,人类是自私的,更多是首先考虑自身利益,那么AI呢?

谷歌DeepMind共进行了两场测试。首先,使用红、蓝分别代表两个不同的AI,游戏规则则为收集苹果(绿色),AI可以使用激光束“标记”对方、使其暂时失去行动能力。显然,第一场测试的规则更多是“竞争”。

人赢不了人工智能,那俩人工智能打起来谁赢?

而从结果来看,两个AI的竞争显然非常激烈,谁都没有认输的意思。

第二场比赛“狼群”,则更改了规则,两个红色AI作为“捕猎者”,需要一个充满障碍物的环境合力围堵蓝色AI,获得更多分数。

人赢不了人工智能,那俩人工智能打起来谁赢?

而在这个测试中,AI显然更加注重合作。

研究人员最终得出结论:AI在不同的上下文环境中,会改变它们的行为,变得更加合作或是对立。比如在第一场测试中,如果绿色苹果的数量充足,AI并不会积极攻击对方,而是将收集放在第一优先级;但是当苹果减少时,AI则变得更具侵略性。

那么,这是否意味着AI会认为这种计算方式是最佳的呢?答案是否定的。更高级的AI,会在权衡自身条件(计算能力)的情况下预估利益,如果计算能力不足、需要耗费太多资源,可能会更倾向于选择合作,这在第二场比赛“狼群”中被充分证实。

最终,测试结果证明AI比人类更加理性,在追求利益最大化的情况下,更容易做出对立或是合作的选择。而人类则会因为情感、情绪影响等因素,导致判断失误,这就是为什么在很多领域AI的效率要比人类高很多。

DeepMind方面则表示,这次研究说明AI有潜力更好地理解和控制多智能体系统,比如交通、经济和星球生态等等,未来将发挥更大作用。(原作者:James Vincent 编译:Rocky)

点此查看英文原文

【美国The Verge作品的中文相关权益归腾讯公司所有,未经授权,不得转载、摘编等。】

人赢不了人工智能,那俩人工智能打起来谁赢?正文已结束,您可以按alt+4进行评论
责任编辑:admin

河南电视新闻网独家出品

新闻由机器选取每5分钟自动更新

手机: 邮箱:
联系电话: 地址: