无人驾驶如果面临人伦道德问题,要怎么解决?
设想一下:一名孕妇乘坐着一辆自动驾驶汽车,与此同时,一个14岁的女孩正骑着自行车走在相反的车道上。
此时,一辆载有两名乘客的货车突然驶出,冲向孕妇乘坐的汽车,这辆自动驾驶汽车必须做出选择:一头撞向货车,孕妇可能流产,货车里的两名男子会受点轻伤,或者转向骑单车女孩的车道,结果可能要了她的命。它会如何决定?
这取决于它的程序如何编写。在一场由创意技术员马修·凯鲁比尼(Matthieu Cherubini)开发的新模拟测试中,自动驾驶汽车可根据三个标准作出决定,也就是设计者设定的伦理行为方式。
[马修·凯鲁比尼供图]
第一个标准是“保护主义”:以不惜一切代价保障乘客安全为首要任务,类似于汽车制造商目前的设计原则。
第二个标准是“人道主义”:自动驾驶汽车将试图拯救尽可能多的生命。
而第三种行为方式以利润为导向:它的指导原则就是保护最宝贵的资产,从而降低成本以备保险之需。
按照保护主义价值观行事,自动驾驶汽车会转向撞上骑车者,毕竟孕妇腹中的胎儿所面临的风险比骑车女孩的安全更重要。
在人道主义原则下,尽管孕妇存在流产风险,汽车仍会决定撞向货车,因为骑车女孩的死亡几率更高。
当利益高于一切时,汽车知道无论与谁相撞,最终的损失都将超过乘车者的保险所能覆盖的费用,于是,它决定撞向骑车者,因为它和货车碰撞的几率更低。
以上是凯鲁比尼在模拟测试中所设定的几个情境之一,但所有情境都存在生命威胁,而自动驾驶汽车都必须做出谁生谁死的决定。
他的用意是提醒所有人,道德决策是非常复杂的问题,很难简化成一个算法。
2013年,凯鲁比尼首次建立了低配版的模拟实验,后来又制作了一个更为简单可行的更新版本,参加Open Codes展览,目前正在德国ZKM当代艺术博物馆展出。(你还可以在他的网站上下载模拟,自行播放。)他表示,刚开始研究道德和自动驾驶汽车时,他坚信汽车道德不可能优于人伦道德。
但深入这一研究领域促使他重新评估这个问题。“要思考机器道德,那首先必须思考你自身的道德。我真的比机器更优越吗?”他说道。
当我问他会为未来的自动驾驶座驾选择哪一个算法时,这一矛盾更加凸显。“我当然很想说我是一个人道主义者,但内心深处我只想保护自己,想保证安全。”
凯鲁比尼拒绝向汽车公司提供伦理编程建议,主要原因是他认为,伦理道德是非常私人的问题,不同文化之间也存在差异。
“如果一辆汽车产自德国,在德国环境和文化里运作良好,接着它被出口到了中国,我认为这辆适应德国环境的车不可能适应中国的环境。”他说道。“伦理道德不能套用到不同文化上。”
我冒昧猜想,不妨让汽车公司公开其算法背后的价值观,允许每一名消费者自由选择他们想要的决策机器类型。
关于这点凯鲁比尼也做过调查。2015年,他设计了一个推测项目,邀请创新设计大奖(Innovation By Design Awards)的荣誉奖获得者决定界面的道德行为。
但说到自动驾驶汽车,把选择权交给用户仍然存在问题,因为每个人都必须受制于其他人的道德选择。
其中一个情境要求自动驾驶汽车决定车上的三名乘客和唐纳德·特朗普总统谁的命更重要,在利益驱动的算法下,特朗普等国家或社会要人一般拥有特权地位。换言之,就是把人类生命的不平等写进一辆车里。
在我的再三追问下,凯鲁比尼终于为设计合乎道德的自动驾驶汽车这一难题给出了方案——不做决定,而是随机做选择。
“和我们的做法有点相似。我们不会思考该撞这个人还是那个人,我们只会惊慌失措。这样,你就不会给别人定价值,决定伤害这个人比那个人更划算。”
毕竟,谁又能说总统或商人的命是否比一家三口的命更有价值呢?人都做不了主,更别说机器了。
‐End‐
文 | Katharine Schwab
图片 | Fastcompany & 网络
编辑 | 黄子君
点击『阅读原文』,购买快公司大会门票
关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/
随时掌握互联网精彩
- 1 逐梦苍穹 习近平引领航天强国建设 4947897
- 2 神十八发射取得圆满成功 4962003
- 3 职高女孩逆袭成双一流大学研究生 4805237
- 4 解码首季经济成绩单 4746286
- 5 14岁男孩离家出走 一夜骑了60公里 4605945
- 6 官方回应“沈阳两女子跪在路边” 4522316
- 7 神十八点火瞬间航天员齐刷刷敬礼 4408433
- 8 夫妻养2.8万只鸡 为省人工自己捡蛋 4324077
- 9 深圳部分区域将取消限购不实 4260091
- 10 中方回应布林肯涉华言论 4177339