您的位置: 舟山信息港 > 美食

当人工智能遇上伦理无人驾驶汽车如何面对死

发布时间:2019-05-14 20:37:00

如果一辆无人驾驶汽车正面临不可规避的交通事故,AI系统会选择撞向谁?诚然,技术已经为现今汽车的智能化贡献了许多,但高度自动化的未来,类似伦理问题是所有人必须面对的。这也是为什么麻省理工学院(MIT)的研究人员启动了这个全新的研究项目,旨在赋予机械道德观。

雷锋消息,麻省理工学院已经上线一个名为道德机器的站,站的功能很简单,就是以问卷的情势面向大众收集情境选择的数据。例如,面对不可避免的事故,选择撞向人还是动物?选择罪犯还是普通人?这些数以万计的选择,将通过后台被MIT的研究团队采集,为未来机器智能平台(如自动驾驶汽车)面临的伦理问题提供参考。

是不是似曾相识?其实,这个问题和悖论之一电车难题一脉相承。电车困难于1967年由菲利帕福特(Philippa Foot)提出,大概内容以下。

一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以操作一个拉杆,让电车开到另一条轨道上。但是问题在于,那个疯子在另一个电车轨道上也绑了一个人。考虑以上状况,你如何选择?

这时候,你面临两个选择:

1.不作为,任由电车碾死被绑住的五个人。

2.扳动转换器,电车会碾死另外一个人,5个人会得救。

这是一个看似简单,但非常复杂的问题,就和未来无人驾驶汽车要面对的问题一样。MIT的做法是,使参与者身临其境地站在无人驾驶汽车AI的位置上,为一些突发状态做出决策。这些极端情况的发生几率极低,甚至一生之中都不会遇见,但至今没有人能给出一个明确的答案。

在MIT给出的摹拟情境中,用户将面对一系列极端场景。究竟一个人的生命,与一只动物的生命孰轻孰重?一个老人和一个年轻人呢?一个男人和一个女人呢?抑或是,究竟应当径直撞死两个犯罪分子和两个无辜路人,还是冲下悬崖放弃驾驶员与三个无辜乘客的生命?

上面这些问题并没有正确答案,据雷锋了解,此项调查的初衷,也是在于收集人类对不同情景下的直观感觉,从而使AI的选择更符合人类的预期,或者说,让AI的残酷选择,达到绝大多数人可以接受的程度。

无人驾驶的伦理困局

毫无疑问,无人驾驶汽车将在未来大大降低交通事故概率,并解救更多生命。但随着无人驾驶运用的普及,总有一天会陷入诸如上述的伦理困局,汽车的智能决策系统需要对一小部分人的意外负责,而在这之前,做这件事的一直都是人类自己。

MIT的实验一定程度上带来了思考,但也有评论指责其过分消费伦理,造成了逻辑漏洞。由于这项研究,是建立在对不同行人的长幼、身份、社会地位等标签的认知基础上的,严肃而不太恰当地说,如果研究数据将解救性命的优先级排序为精英普通职员退休员工一只狗,难道真的可以以此指导无人驾驶车的伦理决策吗?

有媒体认为,这种决策思路建立在了自动驾驶对人类有某种认知的前提下,但少目前,自动驾驶技术并不会达到这种水平。例如,如果质疑一个人的生命价值高于其他人,那么前提是自动驾驶汽车能够辨别哪个人具有更高价值。

此前也有车厂提出比较鲜明的观点,据雷锋了解,去年10月,梅赛德斯-奔驰公司某高管在面对电车难题时对媒体表示,奔驰自动驾驶汽车未来会致力于保护车内乘客的生命,必要时不惜一切代价。

虽然戴姆勒随后出面否认了这一说法,但这却成为车厂没法逃避的问题:如果用户发现你的自动驾驶汽车程序,编写的是一段保护横穿马路行人的代码,他还会为你的产品买单吗?

《自然》杂志的研究报告也显示,即便有明确的规则出台,指点无人驾驶汽车在事故眼前决策,也不会改变用户目前不信任的想法。如果总会有人牺牲,将这个选择权交由机器,不会得到多数人的支持,乃至可能导致人们拒绝购买自动驾驶汽车。固然,长期来看,非自动驾驶会致使更多的死亡,可人们宁肯将选择权交给自己。

我们能够做什么?

谷歌X实验室曾在公然采访中回应过这个问题,当时Waymo还没有作为单独的公司被剥离。X实验室自动驾驶项目的首席工程师Andrew Chatham(安德鲁查塔姆)表示,至少目前谷歌的所有路测活动中,还没有遇到一个场景让我们选择是拯救一个老人还是婴儿,但如果这一刻真的到来,那通常只是意味着几秒前你已经犯下一个更大的错误。

所以,他们的目标,更多是通过优化汽车的刹车决策时间,限度阻挠这类情境的产生。

MIT的方法对人类而言并非解,正如一位评论者所言,如果这种排序是我们面对机器伦理问题的点子,只能说人类还没有准备好迎接由机器智能决策的未来。

月经推迟经量少原因
月经量异常吃什么药
月经量异常是什么问题
猜你会喜欢的
猜你会喜欢的