注册 找回密码
搜索
查看: 1076|回复: 0
打印 上一主题 下一主题

《自然》:无人驾驶道德准则 4千万 选救谁 人小女健高

[复制链接]
跳转到指定楼层
1#
发表于 2018-10-30 20:25:51 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
本帖最后由 顾汉现 于 2018-11-1 11:36 编辑

作者:Iyad Rahwan 来源:《自然》 发布时间:2018/10/30 10:46:24

研究关注无人驾驶道德准则

近日,一篇论文报告了一项全球道德偏好调查,调查内容涉及无人驾驶汽车在无法避免的事故中应决定拯救哪一方。研究结果结合了全球参与者贡献的4000万个决策,或为制定可被社会普遍接受的人工智能(AI)道德标准提供了借鉴信息。

无人驾驶汽车不仅要能导航路线,还要在不可避免的事故中自行应对道德困境。因此,需要制定一套道德准则指导AI系统处理这类场景。如果无人驾驶汽车必将投入大量使用,就必须先确定社会普遍接受的道德准则。

美国马萨诸塞州麻省理工学院的Iyad Rahwan及同事搭建了一个名为“道德机器”的大型在线调查平台,用来统计全球民众的道德偏好。实验将参与者置身于一个不可避免的事故场景中,事发时一辆无人驾驶汽车正行驶在双行道上。每个场景都会让行人和乘客身处不同的危险,而汽车可以选择不变道,或急转到另一条道上。参与者必须选择救谁并决定汽车的前进路线。这项实验共记录了约4000万个此类决定。

研究人员识别出了许多共同的道德偏好,诸如救多数不救少数、救年纪小的不救年纪大的、救人不救动物。作者还发现了不同文化之间的道德偏好差异。例如,中美洲和南美洲国家、法国以及前法属海外领地和现法属领地的参与者,呈现出先救女性和强壮个体的强烈偏好。而来自收入差距较大的国家的参与者在决定救谁时,往往会考虑其社会地位。相关论文在线发表于《自然》。

研究人员最后指出,放手让汽车进行道德抉择之前需要进行全球性的对话,将人们的偏好告知那些道德算法设计公司以及执行监管的政策制定者。(来源:中国科学报 唐一尘)

相关论文信息:DOI:10.1038/s41586-018-0637-6

https://www.nature.com/articles/s41586-018-0637-6

http://paper.sciencenet.cn/htmlpaper/2018103010462490447662.shtm



华成旅行社  欢迎来电咨询:

电话:03-3833-9823  / 03-5688-1863
FAX :03-3833-9873  / 03-3834-5891

SOFTBANK电话:080-3398-4381   担当:小郭  微信号:08034162275
SOFTBANK电话:090-2172-4325   担当:小于  微信号:TYOSCL4325
SOFTBANK电话:080-3398-4387   担当:小李  微信号:huacheng4387
SOFTBANK电话:080-3398-4362   担当:小何  微信号:huacheng602
SOFTBANK电话:080-3084-4389   担当:小马  微信号:huacheng858

http://www.kaseisyoji.com/forum.php?mod=forumdisplay&fid=10]

您需要登录后才可以回帖 登录 | 注册

本版积分规则

关于都市网 | 服务条款 | 开放平台 | 广告服务 | 商务洽谈 | 都市网招聘 | 都市网公益 | 客服中心 | 网站导航 | 版权所有

手机版|小黑屋|Comsenz Inc.  

© 2001-2013 源码论坛 Inc.    Powered by Weekend Design Discuz! X3.2

GMT+8, 2024-11-27 06:48 , Processed in 0.070305 second(s), 19 queries .

快速回复 返回顶部 返回列表