主页 > Y爱生活 >为何自驾车要找「人类学博士」一起研究?为了解决人类无理取闹的 >

为何自驾车要找「人类学博士」一起研究?为了解决人类无理取闹的

2020-06-15

为何自驾车要找「人类学博士」一起研究?为了解决人类无理取闹的

汽车製造商日产(Nissan)延揽莱斯大学 人类学博士梅莉莎.赛夫金(Melissa Cefkin),为该公司的汽车设计做评估,并请她进驻日产技术中心, 主导公司的人机互动研究 。目前她正率领团队研究自动驾驶汽车与人类在进行各种可能的互动时所衍生出的複杂性,以及这些複杂性对汽车设计与控制的影响。

接下来先简要分析一下自动驾驶汽车的前景与隐忧,来思考梅莉莎的投入为何有其必要。

从 2016 年的特斯拉车主事故来看,自驾车面对的挑战

自动驾驶技术的实施这项工程壮举,可以说是令人叹为观止的重大成就,但从安全隐忧来看,还是有许多争议性的问题有待解决。2016 年,一位驾驶配有全自动驾驶模式技术的特斯拉汽车(Tesla)车主惨死,凸显了当前自动驾驶汽车的设计者在为所有危险担起责任的同时,也有他们的侷限。

该驾驶出事时的行驶环境其实并不複杂:那是一条宽敞的公路段,当时自动驾驶系统未能侦测到有一辆货柜车切换车道后,开到这辆特斯拉的前方。事故后的分析发现,自动驾驶系统侦测不到货柜车在强烈阳光照射下的白色车身。该车主可能因为太过于信任自动驾驶,放心地欣赏《哈利波特》(Harry Potter)的电影而没有看着路面,以致于未注意到前方的货柜车。

专家多半认为,马路上其实会出现很多自动驾驶汽车的安全行驶技术到目前为止尚无法应付的状况,比方说路面有淹水、大坑洞、掉落物,或者是出现改道标誌这种临时交通管制措施时。 赛夫金目前的研究重点就是自动驾驶汽车行驶于更为拥挤的都市环境、面对本来就无法预测又非重複性的複杂状况时,会遭遇哪些瓶颈 。

自驾车最大的挑战之一就是:人的「无理取闹」

现今自动驾驶汽车的设计者最艰鉅的挑战之一,就是处理人机混合的环境 。这种环境最终或许都可以统一由机器来运作,但在可预见的未来,基本上还是会出现各种複杂的状况。机器是可以设定成讲求效率又守规矩,但爱找麻烦的人类喜欢破坏规则,总是用複杂到很难让机器也学会的诠释方式,对各个状况逐一分析。

就拿没有红绿灯但设有「停」这个标誌的繁忙十字路口来说, 行经的汽车不是不守交通规则,就是喜欢临场发挥 ,比方说车主这里挥个手、那里用粗鲁的动作示意,或甚至有些车龟速到被后方心急的车主催着跑。

人类学家爱德华.萨丕尔(Edward Sapir)曾在文章中提及 人类微妙的手势系统是「精巧奥妙的不成文密码,但没有人不懂」。自动驾驶车辆还无法感知与了解人类的手势,机器只知道在标誌前停下,所以必须靠赛夫金帮机器思考接下来该怎幺做以及如何成功地周旋于複杂的人际互动之中。

为了完成这个任务,赛夫金必须先找出人类的行为模式,才能帮助程式设计人员了解自动驾驶汽车在道路上应该如何行动。她借用了不少人类学界的工具来找出这些模式,比方说民族誌当中用来实际观察各民族的田野调查法及记录其行为的录影方式等等。

自驾车系统需要将人类的心理层面纳入考量

她的主要目标就是协助日产设计一种沟通系统,以利自动驾驶汽车跟行人及其他车主互动。譬如颜色辨识灯就可以显示汽车现在正準备发动、停下还是留在原地,又或者可以设计某种视觉装置,让人们一看就知道这辆自动驾驶汽车是否已经注意到他们。

也许汽车前方可装设萤幕,用来显示文字,方便传达讯息,就像人类手势的功用一样。除了沟通上的问题之外,还必须要考量到驾驶人的心态,才能让自动驾驶汽车安全进入我们的道路,比方说有些人会因为「快车道」上某辆车的行驶速度比车流速度还慢而火冒三丈,更别提那些容易暴怒的驾驶人了。

据麦肯锡顾问公司(McKinsey & Company)资深合伙人汉斯- 维尔纳.卡斯(Hans-Werner Kaas)表示:「整个汽车製造业已经逐渐意识到有必要处理自动驾驶汽车所涉及到的心理层面,纷纷加强这方面的技能 。」

尽可能抓出所有待解决的后勤问题,只不过是实现汽车自动驾驶的第一步而已,很多极其複杂的道德问题依旧存在。2016 年《科学》杂誌(Science)6 月号有一篇题名为 〈自动驾驶汽车的社会困境〉(The Social Dilemma of Autonomous Vehicles)的文章就指出,今日自动驾驶汽车碰到的问题,其实与 1967 年英国哲学家菲力帕.芙特(Philippa Foot)所发表的知名思想实验「电车难题」(trolley problem)息息相关。

当自驾车碰到电车难题,该怎幺设定系统才是「对」的行为?

在电车难题中,假设轨道上有一辆电车正朝着五名工人疾驶而来,一名目睹此状况的工人可以用控制桿将电车切换到另一条轨道,但那条轨道上又有另外一名工人,这位操作控制桿的工人该怎幺做才对?自动驾驶汽车所面临的难题很就跟这位工人很类似。

应该将汽车设计成优先考虑驾驶人和乘客的生命,不必去管有可能突然转进轨道的行人或自行车骑士吗?假如汽车可以马上右转避免撞到人,但有可能因此撞上挡土墙,或是有更高的风险,比方说撞到正在人行道上等灯号转换的一家三口,那幺这辆汽车该怎幺做才好?虽然自动驾驶汽车被称为「自动驾驶」,但实际上只是根据程式设计人员的设定,在程式码的辅助下,依所学到的规则行驶而已。

应该把汽车「教」成在碰到这类状况时都要设法迴避,还是先计算乘客所承受的风险,然后在不让乘客受伤的原则下转向?

又或者应该将汽车设定成依大多数人在类似状况下会有的反应来反应?难道人类在这种状况下会有某种常见的反应,又如果真有这样的普遍行为,自动驾驶汽车就应该仿效或改良成更好的做法?写入软体中、由程式码所界定的决断力,可以像现今失效的安全气囊那样被「召回」吗?

倘若自动驾驶汽车可以比人类更快做出反应、更快算出所有选项的风险,并且一定会选择最佳选项,救最多人的命,法律不就该明文规定汽车除了一定要有这种程式设计,也必须在遇到上述危险状况时全交由车辆来作主判断?切换成人类车主接手驾驶这个选项是不是也该自动停用才对?

另外,自动驾驶汽车若是证实比人类驾驶更安全又更节能,那幺汽车公司是不是有必要加快开发的脚步?毕竟大家先前就是这样,希望汽车公司加速开发更节能、可降低碳排放量的汽车。

这些问题都还只是隔靴搔痒,并未触及到势必得解决才能将自动驾驶汽车导入人类日常生活的重大议题。

如果要求乘客搭车前同意上述责任义务,这样就够了吗?

如果要求乘客点选「是的」,表示接受其责任义务,就像一般人在下载最新的广告封锁软体时要点按的那种条款和规定一样如何?这幺做就够了吗?哈佛心理学家约书亚.格林(Joshua Greene)在他为《科学》杂誌所撰写的文章 〈无人驾驶汽车的困境〉(Our Driverless Dilemma)中,探讨了这种複杂性的根源。

他指出,机器在做决定时「偏哲学性而不讲究技术性。人类应该先设法让自己的价值观更明确且前后一致,再将价值观植入机器中。」对年轻的伦理主义者和诉讼律师来说,这显然是一个欣欣向荣、值得一探究竟的业务领域。国际性法律公司欧华律师事务所(DLA Piper)已经推出「连结与自驾式汽车业务」,而现年 33 岁,毕业于范德堡大学,主修美国研究,后来在康乃尔大学受训成为律师的艾略特.卡兹(Elliot Katz), 正是该业务的全球共同负责人,他就思考了不少这方面的议题。

为何自驾车要找「人类学博士」一起研究?为了解决人类无理取闹的


上一篇: 下一篇:

相关推荐