无人驾驶如果面临人伦道德问题,要怎么解决?

百家 作者:快公司FastCompany 2017-11-20 04:52:05






设想一下:一名孕妇乘坐着一辆自动驾驶汽车,与此同时,一个14岁的女孩正骑着自行车走在相反的车道上。


此时,一辆载有两名乘客的货车突然驶出,冲向孕妇乘坐的汽车,这辆自动驾驶汽车必须做出选择:一头撞向货车,孕妇可能流产,货车里的两名男子会受点轻伤,或者转向骑单车女孩的车道,结果可能要了她的命。它会如何决定?


这取决于它的程序如何编写。在一场由创意技术员马修·凯鲁比尼(Matthieu Cherubini)开发的新模拟测试中,自动驾驶汽车可根据三个标准作出决定,也就是设计者设定的伦理行为方式。


[马修·凯鲁比尼供图]


第一个标准是“保护主义”:以不惜一切代价保障乘客安全为首要任务,类似于汽车制造商目前的设计原则。


第二个标准是“人道主义”:自动驾驶汽车将试图拯救尽可能多的生命。


而第三种行为方式以利润为导向:它的指导原则就是保护最宝贵的资产,从而降低成本以备保险之需。


按照保护主义价值观行事,自动驾驶汽车会转向撞上骑车者,毕竟孕妇腹中的胎儿所面临的风险比骑车女孩的安全更重要。


在人道主义原则下,尽管孕妇存在流产风险,汽车仍会决定撞向货车,因为骑车女孩的死亡几率更高。


当利益高于一切时,汽车知道无论与谁相撞,最终的损失都将超过乘车者的保险所能覆盖的费用,于是,它决定撞向骑车者,因为它和货车碰撞的几率更低。


以上是凯鲁比尼在模拟测试中所设定的几个情境之一,但所有情境都存在生命威胁,而自动驾驶汽车都必须做出谁生谁死的决定。



他的用意是提醒所有人,道德决策是非常复杂的问题,很难简化成一个算法。


2013年,凯鲁比尼首次建立了低配版的模拟实验,后来又制作了一个更为简单可行的更新版本,参加Open Codes展览,目前正在德国ZKM当代艺术博物馆展出。(你还可以在他的网站上下载模拟,自行播放。)他表示,刚开始研究道德和自动驾驶汽车时,他坚信汽车道德不可能优于人伦道德。


但深入这一研究领域促使他重新评估这个问题。“要思考机器道德,那首先必须思考你自身的道德。我真的比机器更优越吗?”他说道。


当我问他会为未来的自动驾驶座驾选择哪一个算法时,这一矛盾更加凸显。“我当然很想说我是一个人道主义者,但内心深处我只想保护自己,想保证安全。”


凯鲁比尼拒绝向汽车公司提供伦理编程建议,主要原因是他认为,伦理道德是非常私人的问题,不同文化之间也存在差异。


“如果一辆汽车产自德国,在德国环境和文化里运作良好,接着它被出口到了中国,我认为这辆适应德国环境的车不可能适应中国的环境。”他说道。“伦理道德不能套用到不同文化上。”



我冒昧猜想,不妨让汽车公司公开其算法背后的价值观,允许每一名消费者自由选择他们想要的决策机器类型。


关于这点凯鲁比尼也做过调查。2015年,他设计了一个推测项目,邀请创新设计大奖(Innovation By Design Awards)的荣誉奖获得者决定界面的道德行为。


但说到自动驾驶汽车,把选择权交给用户仍然存在问题,因为每个人都必须受制于其他人的道德选择。


其中一个情境要求自动驾驶汽车决定车上的三名乘客和唐纳德·特朗普总统谁的命更重要,在利益驱动的算法下,特朗普等国家或社会要人一般拥有特权地位。换言之,就是把人类生命的不平等写进一辆车里。



在我的再三追问下,凯鲁比尼终于为设计合乎道德的自动驾驶汽车这一难题给出了方案——不做决定,而是随机做选择。


“和我们的做法有点相似。我们不会思考该撞这个人还是那个人,我们只会惊慌失措。这样,你就不会给别人定价值,决定伤害这个人比那个人更划算。”


毕竟,谁又能说总统或商人的命是否比一家三口的命更有价值呢?人都做不了主,更别说机器了。

 


‐End‐


文 | Katharine Schwab

图片 | Fastcompany & 网络

编辑 | 黄子君


点击『阅读原文』,购买快公司大会门票

关注公众号:拾黑(shiheibook)了解更多

[广告]赞助链接:

四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

公众号 关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接