• QQ空间
  • 回复
  • 收藏

专访“多智能体”先驱迈克尔:当AI学会人类社交,“机器人总动员”还会远吗?

东方头条 2020-03-20 17:51:02 科技

牛津大学计算机科学系主任Michael Wooldridge迈克尔·伍尔德里奇

“人工智能未来发展的趋势会是多智能体,AI之间能实现智能互联。就像人生活在充满丰富社交的社会当中,AI也可以学会人类的社交方式,并与其他智能体达成协同。”

在2019T-EDGE全球创新大会上,牛津大学计算机科学系主任迈克尔·伍尔德里奇(Michael Wooldridge)阐释了他对于未来AI趋势的洞见。这种多智能体,指的就是多个AI系统互联互通所形成的一个整体。

迈克尔·伍尔德里奇是人工智能界的学术先驱,在多智能系统方面颇有建树。其著述《多Agent系统引论》已经被引为国内外计算机科学专业教科书。

他同时兼任国际计算机学会、美国人工智能学会及欧洲人工智能学会会员,国际人工智能联合会议主席,几乎包揽了人工智能领域的所有荣誉。

他曾在经典著作《多Agent系统引论》中写道:区别于地球上的其他生物,不只是因为人类有毋庸置疑的学习和解决问题的能力,更是因为人类具有与伙伴通信、合作、达成一致的能力。这些我们每天都使用的社会能力,是与规划和学习等智能同等重要的智能行为。

因此,迈克尔·伍尔德里奇正在与团队研究如何让AI系统去学习人类的社交行为,以人类的社交方式进行智能互联。

AI技术已经有很多主流的落地应用,比如Siri、Alexa和Cortana这种AI助手。它既能以软件形式存在,又能以机器人、汽车这种硬件形式存在。

从学习人类社交模式的进展来看,当前AI还停留在学习人类行为和喜好阶段,而下一步他想让AI系统之间智能互联,比如Siri可以和另一个Siri对话。这就需要为AI赋予人类社会主要的社交技能,主要表现为合作、协调和协商三种能力。

那么AI学习人的社交能力会带来哪些好处?对此,迈克尔·伍尔德里奇通过三个例子举例说明。

首先是合作能力。比方说,日本福岛核电站泄露这样的灾害现场,已经不适合人类救援队展开援救,灾难型机器人这时就需要担负起人类救援队的任务。他们需要团队协作,共享救援信息,发现幸存者后要把信息传达给其他机器人。他们还需要共担风险来完成任务。

其次是协调能力。如果一个大演播厅发生了火灾,如果观众慌忙逃离势必会产生踩踏事故。机器人也是如此,机器人需要具备能理解其他机器人行为的能力,具体表现为,机器人要理解另一个机器人的行为对自己会产生哪些影响,从而调整自己的行动。

比方说,在一间共享的仓库中有两家公司分别用机器人送货,机器人之间要去预测对方行动,并且根据对方行动调整自己、才能让双方都能圆满完成送货这一指令。

最后是协商能力。如果两家公司都想去到某些目的地,但双方目标中有地点有重合,双方必须通过博弈和协商去为对方“让路”,才能达到双赢的结果。

据迈克尔·伍尔德里奇预测,不出20年灾难机器人就能代替人类救援队展开施救。在更多场合,机器人之间不仅可以互通消息,还能彼此商量着完成任务。

但为AI赋予人类社交能力的最大难点在于,人类对自己社交技能的形成过程都尚未了解,想让AI去学习人来社交模式更是极大的挑战。因此这件事至今还处于起跑线上。

为进一步阐释对于AI未来趋势的判断,迈克尔·伍尔德里奇接受了钛媒体专访,对于“多智能体”的未来、未来AI世界的构想以及AI伦理等问题展开了讨论。

谈“多智能体”的未来

钛媒体:您在演讲中提到机器人需要社交能力,比如团队协作和协商。像灾难机器人需要分享信息、配合来实现营救。但为机器人赋予社交能力的难点在哪里?

迈克尔·伍尔德里奇:为机器人赋予人类的社会经验和社交技能是挑战非常大的事。

首先我们对自己社交技能的形成过程都不是很了解,从儿童成长至今的漫长过程中,经历了在家庭、学校和职场等环境的各个社会角色,在不断地与他人的交互与反馈中获得了这种社会技能。但是机器人或者计算机,是不可能像人一样去学习社会技能的。

所以我们现在应该研究如何从零开始,让AI也拥有社会技能。对此我们仍然处在起跑线。但我深信,未来一旦取得成功,我称为“多智能体”的这种具备社交技能的AI或机器人必定会应用广泛。

钛媒体:对于这种具备社交技能的机器人,您和团队现在取得了哪些进展?目前有让机器人进行团队型工作的例子了吗?

迈克尔·伍尔德里奇:举例而言,我们在以色列的公司正在研究给AI赋予谈判功能。既可以和人进行谈判,又可以利用其谈判技能去培训用户。我们团队中都是AI专家,世界上还有很多团队在研究AI救援机器人。我相信20年之后,这项技术就会非常成熟,那时已经有了可用于自然灾害的救援机器人。

谈未来的AI世界

钛媒体:这个世界的信息非常多,已经没办法通晓所有的知识,掌握所有的信息,但是人工智能可以。这种越来越大的信息不对称,未来会不会真的会有一个掌控所有的Matrix的出现?

迈克尔·伍尔德里奇:我认为这种情况是不可能发生的,是杞人忧天的想法。我们可以看到小型的AI系统是无所不在的,但是未来AI绝非是像大家想象的那种超大型的系统。事实上,AI的确会介入到生活的方方面面,但我不认为会有AI控制人类世界的那一天。

钛媒体:你在《多Agent系统引论》中写道:区别于地球上的其他生物,不只是因为人类有毋庸置疑的学习和解决问题的能力,更是因为人类具有与伙伴通信、合作、达成一致的能力。这些我们每天都使用的社会能力,是与规划和学习等智能同等重要的智能行为。这是不是一个人工智能的新思路?因为现在的深度学习还是在制造一个类似于人类的超级大脑,而按照你的思路,似乎是在学习蚂蚁和蜜蜂的群体智慧?

迈克尔·伍尔德里奇:目前只有小部分研究者热衷于研究这种类脑的AI。大部分的研究人员并不热衷于开发类脑AI,并且对此持怀疑态度。

首先,人脑是非常复杂的结构,有很多的神经元,因此人脑结构是很难去进行模仿、复制和重建的。更大的误解在于,大脑之于人体并不像是CPU之于电脑,能够承担中央处理器的功能。人脑是身体的一部分,需要和身体的其他器官联系与互动。这就会导致做类脑AI更加难以实现。

谈AI情感与虚拟分身

钛媒体:一些公司如微软通过打造微软小冰为AI赋予情感,让人工智能助手可以被设定成活泼、冷静等各种性格。像电影《她》中呈现的,未来AI可以拥有像人一样的思考方式和情感吗?

迈克尔·伍尔德里奇:这个话题在整个AI产业中是非常具有争议的。我的同事都不理解为什么非要给AI赋予感情。更重要的是,如果真的要为AI赋予感情,让其与人类产生互动,首先应该让让AI理解人类的行为和世界。比如,AI做的哪些事对人类产生怎样的影响、哪些事会令人们开心或者伤心等等。这会是赋予AI情感的关键所在。

钛媒体:当前有很多公司正在研究虚拟人像,为人类创造一个“虚拟的分身”,比如虚拟主持人就是一个例子。你怎么看待这项技术的应用情况?

迈克尔·伍尔德里奇:就像《头号玩家》电影的情节,在游戏世界中拥有虚拟形象能够让人身临其境,未来会有广泛的应用。但我的担忧在于,如果每个人都沉浸在自己的虚拟世界中,他的世界就会相对的隔离和孤立。

比如你的虚拟世界可能是星球大战,而我的虚拟世界却可能是黑客帝国。这种虚拟世界是否可以互动和互联在一起,还是人们会各自在不同的虚拟世界里生活,这是我比较担心的。

钛媒体:现在国内已经有公司在真人的“虚拟分身”,希望分身能“继承真人的性格特征,并在真人去世后代替他生存下去“,你怎么看待这件事?

迈克尔·伍尔德里奇:让AI虚拟形象去”延续“人类寿命这件事看起来很有吸引力,但本质上还是看个人需求。我尊重死亡的自然规律,但对一些人来说用这种方法让自己重焕青春或许可行。总而言之,我认为这个技术在未来的应用不会太广。

谈AI伦理:谁具有决定权?

钛媒体:您在演讲中提及我们在将更多的选择权交给电脑。你认为在做决定时,应该是人来做判断,还是人要让位于电脑程序,谁应该具有主导权?

迈克尔·伍尔德里奇:人和电脑谁具有决定权要分情况讨论。首先是必须划红线的区域,比如让机器来决定人的生死就是禁区。而一些常规性的决策可以让机器来进行。比如20年前没有GPS,人们出行要看地图费事费力。而GPS出现后,人可以给机器授权,让它来完成导航和目的地推荐。

一些国家开始在司法领域运用AI进行决策,比如用AI判断嫌疑人是否入狱,如何控制量刑等等。这引起了人权组织的极度不满,认为生杀大权不能交给电脑来掌控。所以AI应该在划定红线后去做常规性的决策。

钛媒体:算法的黑盒子,是不是真的很可怕?我们现在已经不知道人工智能是如何制定策略的。我们必须接受未知的不确定性吗?

迈克尔·伍尔德里奇:AI算法的黑盒子确实是个很大的问题。我们为什么会对AI产生信任?从实践经验而言,如果AI能够给予人很好的解释,比如为什么会做出这样的决策,这样才更容易被人所接受。

谈AI落地场景

钛媒体:在中国,AI领域出现了一些独角兽公司,他们致力于找到技术应用场景,但进入传统实体行业并不容易,例如交通,制造业等,这些行业数据采集困难、大多靠经验驱动,你怎么看?传统行业受惠于AI还要多长时间?

迈克尔·伍尔德里奇:在所有的产业中,AI关注的是通过改进技术,来提升效率和产品服务。在传统行业,AI应用范围很广。我对于AI是非常有耐心的,认为在不远的未来传统行业就能受惠于AI。

钛媒体:对于人工智能的发展速度,请你做一个评估,到底是快,还是慢呢?

迈克尔·伍尔德里奇:AI发展速度并不如我们想象的那么快。虽然已经有很多领域的应用,但总体而言应用范围依然狭窄。与好莱坞大片中呈现的AI应用比起来,我们还有很长的路要走。

(本文首发钛媒体,采访、作者芦依,编辑/李小年)