无人驾驶汽车的社会困境
发表时间:2024-01-07 22:17:24 来源:建模服务
自动驾驶汽车是一种依靠人工智能、视觉计算、雷达、监控装置和全球定位系统协同合作,让电脑可以在没有一点人类主动的操作下,自动安全地操作机动车辆。谷歌、苹果、特斯拉、百度等公司都在争相研发这种车辆,其中谷歌计划于2017年正式推出无人驾驶汽车,百度计划无人驾驶汽车在2018年上市,2020年实现量产。经济咨询机构IHS预测,截至2035年全球将拥有近5400万辆无人驾驶汽车。(下文简称自驾车)
自驾车被认为能提高交通效率,降低环境污染,以及减少90%的交通事故。然而考虑到未来的马路上会有上千万辆自驾车,出现车祸的次数不会变得屈指可数。而且在推广阶段,自驾车交通事故会被媒体广泛报道,进而对消费的人的信心产生特别大的影响。那么自驾车应该采用怎样的决策原则应对难以避免的车祸呢?比如,在下图中,自驾车应该转弯牺牲乘客以拯救10个行人,还是保护乘客的安全,往前撞上去呢?这是一个传统的道德两难问题,同时也是自驾车成为全球性的商品前一定要解决的问题。
法国图卢兹经济学院的Bonnefon教授和美国俄勒冈大学心理学部的Shariff教授通过一系列实验探究人类对于自驾车应该设置怎样的道德原则的看法,他们在亚马逊土耳其机器人网站对1928名美国受试者展开调查,最后的研究结果于2016年刊登在《Science》杂志上。
研究发现为自驾车设置道德原则存在一个社会困境:无论在怎样的情境下,人们都认为按照功利化原则,即为到达整体伤亡最小牺牲乘客是道德的(67%的人认为牺牲1位乘客比10位行人更道德),也认为未来的自驾车应该设置这样的原则,然而他们更愿意购买那种保护乘客的自驾车。比如,人们愿意购买保护乘客自驾车的程度远低于功利主义的自驾车,差异达到显著水平(尽管受试者购买保护乘客自驾车的可能性也只有50%左右)。而且受试者更希望其他人,而不是自己开功利主义的自驾车,差异同样达到显著水平。
那么,这就涉及到一个经典的困境搭便车了。每个人都希望看到好的结果,但不愿为此付出努力。受调查的人明白功利主义的自驾车是道德的,对整体有利,也希望其他人开这样的车,但是当制造商提供两种道德原则的车时,更多人会选择保护乘客的车。真实的生活中这样的例子更是比比皆是,比如在全球气候治理中,一些国家会想着搭其他几个国家的便车,不愿为共同的目标做出努力。但如果每个主体都选择对自己最有利的方式,整体的结果往往达不到最优。
在自驾车的市场上,共有3个主体决定自驾车应对车祸的道德原则或道德算法:自驾车的制造商、消费者、政府。制造商通常会生产消费者喜欢的产品,那么他们会倾向生产保护乘客的自驾车。现在的问题是政府应不应该管理自驾车的道德原则呢?研究之后发现,人们并不愿意政府规定自驾车按功利主义原则编程,因为这可能会引起自我牺牲(33%-46%)。对于遵照这一规定的无人驾驶汽车,人们表示的购买可能性的中位数是21%,而对于不遵照这一规定的汽车,购买可能性能达到59%。所以如果政府强制这样的道德原则,消费者有很大的可能性就不购买自驾车。自驾车的推广一旦受阻,它所带来的好处,如缓解交通压力、大幅度减少交通事故就也要延缓了。
此外,研究考虑的还是十分简单的情况,现实中的交通事故往往存在许多不确定性。另外在做道德决定时需不需要仔细考虑乘客和行人的年龄、价值呢?《我,机器人》中的主人公曾遇到一场车祸,前来营救的机器人经过冰冷的计算选择先救生存率更高的他而不是年幼的小女孩。为此主人公十分内疚,也对机器人产生怨恨。
最后,研究者提出在今天的人工智能中,为机器设置道德原则是十分棘手的。但是,由于我们将要赋予数以百万的机器自主性,在它们的程序和算法中考虑道德又是迫在眉睫的。解决这样一些问题没那么简单,因为它们不仅仅涉及到科学技术,更涉及到道德、伦理、心理问题。人们该怎么样面对人工智能时代的道德困境,协调好人与人之间的利益呢?或许我们大家可以从哲学,尤其是中国传统儒家哲学中寻找答案。
- 上一篇: 全省首家VR+AI智能教育驾培馆在杭推出
- 下一篇: 如何让无人驾驶汽车走出道德困境?