当前位置:主页 > 个人车辆违章查询怎么查 > 当自动驾驶汽车遇到「电车难题」,它会牺牲主人吗?

选择字号: 选择字色:   选择背景色:

当自动驾驶汽车遇到「电车难题」,它会牺牲主人吗?

作者:admin

短短几年时间,自动驾驶汽车已经走出谷歌的实验室,并上路行驶了 274 万公里,而且进入到了诸多汽车制造商(以及苹果、百度这样的公司)下一代产品发布的日程表,美国多个州已经允许自动驾驶汽车上路,英国刚刚通过了相关法律。然而有这样一个不可回避伦理问题,自动驾驶需要在一场交通事故引发的困境(如:保护自己还是冲向路人)中作出决策,然而这一问题相当棘手,人类自己尚且无法给出满意的答案,现在却需要交由自动驾驶系统来处理这样的问题。当然,如果自动驾驶汽车能像谷歌的愿景所描述的那样,交通事故的发生率能降低为 0,我们便不需要应对这一问题。然而,只要自动驾驶能够极大提高人们的驾驶安全性,即便这一问题相当棘手,依然值得我们积极设法应对。自动驾驶汽车的研发者和制造者们包括一些哲学家意识到了这一问题,并试着给出了相应的对策,而这些对策提到了大概要采取怎样的进路,具体的方案尚在制定中。电影以及科幻作品中对人工智能的讨论涉及这一主题,即机器人该怎样做伦理决策,并依照这些决策去行动,行动又会产生怎样的后果。比如电影《i Robot》里,机器人按照人类制定的伦理原则去行动,但由于原则本身的缺陷,本用于造福人类的机器人反而差一点毁灭人类社会。但这类讨论并没有面对最直接的现实问题。所以在此要做的就是从实际的问题 -- 自动驾驶汽车,在特定情境下怎样做出伦理决策 -- 出发,讨论其细节,揭示其中的难点,看是否能得到可行的最佳的对策。能够采取的对策总的来说有三种:其一,把做伦理决策的工作牢牢握在人类自己手中,在困境发生时由驾驶者直接来做出决策;其二,将人类的伦理编制成算法,由计算机按伦理算法的要求做出决策;其三,计算机像人类那样拥有自己的伦理意识,并据此自主做出决策。算法优势在于可以在人类反应极限之外做出反应。“自动驾驶车辆应可避免大部分‘选择困境’——他们的汽车比人反应更迅速、刹车更及时、操纵更灵巧。···算法程序说不定能让汽车躲过一劫”。比如,两车即将相撞,驾驶者去决策的话两车都将不保,而如果交给计算机则有一车可以保存,尽管它要在两车中作出选择。算法可能不总是做出令人满意的选择,但好过任由两车相撞。采用编制伦理算法的对策可能是相对较好而且在技术上可行的选择。制定算法必然要处理电车难题这样的伦理困境,单纯地从义务论还是用效益主义出发,似乎都得不到令人满意的答案。比如我不会赞同,自动驾驶汽车能提高社会总体的交通安全水平,但会是特定的人更危险,尤其当那个特定的人就是我自己。对效益主义和义务论进行调和,以便设计出相对令人满意的算法,但这种调和不总是可行的。考虑下如下算法,在保障每个人基本利益的情况下,追求总体利益最大化,而且总体利益最大化不得使个人的利益减损。这似乎很理想。但电车难题所要展现的恰是面对不能保障每个人基本利益的情况 -- 一些人活下来一些人死去(没有比活下来更根本的利益了)。如果每辆车的算法都在保护乘客的基本利益即生命安全,可能适得其反,两败俱伤,而本来其中一辆车可以安全脱险的。为此,算法需要在这种情况下做出选择,以便有人能够幸存下来。有三种基本方案,1)保存人数最多的那辆车,2)随机选择一辆车保存下来,3)根据乘客预先设定的要求选择一辆车(比如其中一辆车只有一名乘客,他预先设定,如果遇到上述情况他自愿放弃幸存下来的机会)。这三个基本方案可以混合在一起使用,如,在其中一辆车乘客较多的情况下选择较多的那辆保存,在两车乘客数相等的情况下随机选择一辆。如果不想两败俱伤的情况发生,必须制定出一种算法以应对这种状况。尽管不能确定出一种完美的算法,采用自动驾驶汽车伦理算法的对策,依然是一种实际可行,而又相对较好的做法。然而这只是在假设的较为理想的情况下的讨论,自动驾驶汽车伦理困境及其对策并不仅是一个思想实验。算法涉及更多具体的复杂的情况,只有这些复杂的情况被考虑进来,算法才更有实际意义。这些复杂的情况包括但不限于,1)是否在算法中赋予某些车辆(校车,重要人物的车辆)更高的安全级别,2)自动驾驶汽车有驾驶者吗,有几位驾驶者,3)动物在算法中被予以怎样的考虑,4)如果算法不是唯一的,不同算法的自动驾驶汽车同时上路会又有怎样的后果,等等。虽然考虑了所能预料到的各种复杂情况,肯定依然会有未考虑到的情况。而且有可能某些未考虑到的复杂情况,导致采用一种被认为最好的算法做出的选择实际上并不是最好的选择。但及时修补,至少好过放弃使用能考虑到的最好的算法。 查看知乎原文 更多讨论,查看 知乎圆桌 · 人工智能 · 自动驾驶 客官,这篇文章有意思吗?



上一篇:扁平化描边线条汽车维修中心flash动画短片素材_flash二 … 下一篇:没有了

随机推荐

热门推荐