机器人是道德僵尸可作出救助行为但不理解新时代

机床配附件及维修2020年06月03日

英国《新科学家》周刊站9月14日称,能分辨对错吗?想让机器人、自动驾驶汽车和军用机械有道德观念实在是太难了。

我们能否做个 好人 ?带着这个想法,英国布里斯托尔机器人实验室的机器人专家艾伦 温菲尔德为机器人制造了一个道德陷阱,而接下来,机在众多抛来橄榄枝的投资者中器人的反应则令人震惊。

在一个实验中,温菲尔德和他的同事为机器人设定了一个程序:阻止其他拟人机器人掉进洞里。这是艾萨克 阿西莫夫(美国著名的科幻小说家)提出的机器人三大定律之一 机器人必须防止人类受伤害 的简版。

一开始,机器人还能顺利完成任务:当拟人机器人向洞口移动时,机器人会冲上前去将其推开,防止其掉到洞里。随后,研究小组又添加了一个拟人机器人,两个拟人机器人同时向洞口移动,救人机器人则要被迫做出选择。有时,它成功地救了一个 人 ,而另一个掉进了洞里;有几次,它甚至想要两个都救;然而在 次测试中,有14次因为在救哪一个的问题上不知所措而浪费了时间,以至于两个 人 都掉进了洞里。研究人员于9月2日在英国伯明翰召开的 迈向自主机器人系统 会议上向世人展示了他们的实验。

温菲尔德形容他的机器人是 道德僵尸 ,虽然根据设定的行为程序,它可以对他人进行施救,但它根本不理解这种行为背后的原因。温菲尔德说,他曾经认为让机器人自己做出道德伦理选择是不可能的。现如今,他说: 我的答案是:我不知道。

随着机器人日益融入我们的日常生活,这一问题也需要答案。例如一辆自动驾驶汽车,某天或许要在保全车内人员安全和给其他驾驶员或行人造成伤害这一风险之间进行权衡。或许很难给机器人设置处理这种情况的相应程序。

然而,为军事战争设计的机器人或许能够为我们提供解决这一问题的初步答案。佐治亚理工学院的计算机科学家罗纳德 阿金专门针对名为 道德监督员 的军事机器人研制了一套运算法则,这套运算法则可帮机器人在战场上做出明智的抉择。阿金已经在模拟战斗中进行了测试,结果显示,安装这种程序的机器人能够选择不开枪,且在战斗过程中,能够在学校和医院等战争条例规定的受保护区域附近尽量减少人员伤亡。

阿金说: 战争法则已有千年历史,人类会受情感因素影响而打破规在开幕式后矩,机器人则不会。


银川治疗白斑病费用
脑梗塞有什么症状吗
筋骨疼痛使用活络油效果怎么样
宝宝不爱吃饭是怎么回事
相关阅读
曾和付笛生相爱四年,转身却爱上侯耀文将他抗拒,今56岁依旧单身

恰巧华北地区出名的小提琴家,大家意味著新近一切都是到的都是齐秦。但其...

2023-09-30
蔚来与极地未来合作开发 COP15青年生物多样性科学探索

5同月22日,第22个亚太地区生命体多元性日在即,蔚来宣布与极地下一代就Cl...

2023-09-16
末节18分+准小胜!莫兰特一场论别急着吹,他可能是下一个威少?

今日NBA世界大赛勇士对阵纽约尼克斯队的美网六场早已终结,勇士凭借戈兰特...

2023-09-13
创新质量和安全管理,患者及其家属齐加入

让病人及亲属加入病人必需行政,可以实施哪些举措? 保健恒星质量和保健...

2023-09-10
职场上升期,谈10000个小时定律的关键因素结果

所谓一万时长方程,就是不管你花钱什么,只要坚定不移一万个时长,你都确...

2023-09-08
线上线下相结合! 东京电玩展2022主感知公布

「仙台体验版2022」亦然视觉鼓动平面图公开发表,由くっか所绘。亦然题为...

2023-09-03
友情链接