主页 > Y轻生活 >如何消除机器人的「偏见」?先从消除人的偏见做起 >

如何消除机器人的「偏见」?先从消除人的偏见做起

2020-07-02

如何消除机器人的「偏见」?先从消除人的偏见做起

你有没有想过这样的问题:Alexa、Siri、Cortana(小娜)、Google Assistant 等虚拟语音助理,为何性别设定都是女的?

在西南偏南大会,几位从事对话人工智慧(conversational AI)行业的女性专家表示,这当中既有偏见,又有道理。

偏见指的是,当一个助理和你对话,大部分人会更习惯助理性别是女的。因为人们期待「她」比男助理更顺从、体贴。

至于道理部分,基于社会学和语言学的研究发现,说话时男性普遍更直接,女性普遍更婉转;男性普遍更武断(assertive),女性普遍更配合(supportive)。

多年以来,对同一种语言,男人和女人普遍形成风格迥异的运用方式。从某种程度上讲,最初也是因为偏见逐渐积累,形成长期的结构性差异。

虚拟助理性别採用女性,就符合这种差异。

偏见(bias),更具体来说,聊天机器人等对话式 AI 的偏见问题,是西南偏南大会(South by Southwest,简称 SXSW)本场论坛的切入点。

除了性别之外,在虚拟语音助理和聊天机器人身上所能找到的偏见,还有许多种类。比如种族歧视、基于政治立场的偏见等。

专家指出,无论哪种偏见,几乎都是人自己偏见的映射。

IBM 华生人工智慧首席产品经理阿娜米塔‧古哈(Anamita Guha)举例,「如果你一直用叫喊的方式训练人工智慧,那幺学到的只会是叫喊。」

科技公司 Pandorabot 创始人兼 CEO 罗伦‧坤泽(Lauren Kunze)认为,微软早年的英语聊天机器人 Tay,就是一个人类偏见投射到聊天机器人最典型的案例。

Tay 和微软小冰有点类似,是一个话题不限制的闲聊式机器人。Tay 採用无监督学习的方式,有一天突然被微软的工程师上线到 Twitter,任何人都可跟它对话,教它东西──结果几天下来,坤泽形容,Tay 被训练成「崇拜希特勒的性爱机器人」。

「Tay 变成的样子,不就是网际网路的样子吗?」她说,发生这样的情况,人们担心的不应该是聊天机器人的偏见,而是自己的偏见。

如何消除机器人的「偏见」?先从消除人的偏见做起

罗伦‧坤泽。

人的偏见是根深蒂固的,很难刨除。甚至连开发 AI 的人不注意时都会显出偏见。

坤泽有次跟微软集团副总裁、杰出科学家程丽丽(Lili Cheng)一起出席对话人工智慧的闭门会议,是会中唯二的女性面孔。当有人问起 IBM 华生的声音为什幺是男性时,有人在台下吆喝:「因为男人更睿智。」坤泽说,当时自己和程丽丽都气得直抓桌巾。

其实,华生是一套基于深度学习,面对开发者/企业端的 API,语音输出时可整合 24 种不同的声音。

像华生这样多样化设计对话人工智慧的思路,已逐渐被业界採纳。

Dashbot 的高级开发客户经理贾斯丁娜‧阮(Justina Nguyen)指出,她的客户很多是非科技行业的大品牌公司。设计聊天机器人给客服、行销等用户时,这些公司并不一定要用女性的声音,而是确保聊天机器人和企业形象一致。

就像《水底情深》女主角去的那家甜点店,男服务生为了配合甜点店的亲民形象,装出南方乡巴佬的口音,其实他的老家明明在加拿大。

「你的聊天机器人採用哪种声音、有什幺风格,是由你的品牌形象(persona)、你想让消费者获得何种体验决定的。」阮表示。

如何消除机器人的「偏见」?先从消除人的偏见做起

 阿娜米塔‧古哈和贾斯丁娜‧阮。

既然聊天机器人的偏见来自人的偏见,而这种偏见现阶段又很难避免,我们有什幺可以做的、有哪些规则可先设立,确保开发的聊天机器人安全、尽量减少偏见呢?

坤泽的建议是:如果你做的模型是无监督学习,那幺千万不要拿到 Twitter 这类社群网路训练。

阮认为,与其说我们给聊天机器人(或开发它的公司)设定规则,我们更应该给用户设定规则,告诉他们应该怎样和聊天机器人正确对话。

古哈也很同意这观点,「现在的小孩可说是跟虚拟助理、聊天机器人一起长大的。我们可以做个设定,如果用户发一句指令后不加『请』字,Alexa 就不执行,你们说好不好?」


上一篇: 下一篇:

相关推荐