人工智能通过阅读故事学习人类价值观
来源:ai 网络用户发布,如有版权联系网管删除 2018-08-23
人工智能(AI)的快速发展让许多人开始害怕机器人是否会做出不符合人类伦理的事情,并危害全人类。一些人甚至要求政府禁止机器人方面的科学研究。还有一些人则呼吁对AI进行更多研究,以理解应该怎样更好地管理AI。但是,如果我们没有一本「如何做人的说明书」,机器人如何才能学到符合伦理的行为呢?
娱乐智能实验室的助理教授Riedl说:「不同的文化中都有很多故事,通过寓言、小说和其他文学体裁教孩子们哪些行为在社会中是合宜的,哪些是不合适的。我们相信,让机器人理解故事,能消除那些看起来像精神病的行为,并巩固那些能获得预期目标又不会伤害人类的行为。」
Riedl 和 Harrison在他们的研究中验证了如何产生这种价值奖赏信号来揭示一个给定情境中所有的可能步骤,并将其映射到一个情节轨迹树。接着,机器人会用情节轨迹树来做出「情节选择」(有点像《惊险岔路口》那种分支情节),并基于该选择获得奖励或惩罚。
Riedl 说,Quixote技术适用于那些目标单一但需要和人类互动的机器人,它是通往AI通用道德推理的必经之路。
他补充说:「我们相信,AI必须要适应文化,适应某个特定社会的价值观。要实现这一点,它必须尽量避免不被接受的行为。由于我们并没有一本《人类使用手册》,所以让机器人拥有阅读和理解故事的能力,或许是最方便的方法。」
机器之心,最专业的前沿科技媒体和产业服务平台,每日提供优质产业资讯与深度思考,欢迎关注微信公众号「机器之心」(almosthuman2014),或登录机器之心网站www.almosthuman.cn查看更多精彩内容。(机器之心系今日头条签约作者,本文首发头条号)
查看评论 回复