ai让人类意识到自己是ai会加分:这年头连AI都学会性别偏见了
ai让人类意识到自己是ai会加分:这年头连AI都学会性别偏见了“聪明”属于男性,“漂亮”属于女性;男人“阅读、建造、教书、赚钱”,女人“洗碗、缝衣、做饭、带孩子”;他是“教授”,她是“助手”。via DoraVargha/Twitter近年来随着人工智能技术的发展,谷歌翻译、有道、DeepL 等翻译软件都在极大地改变着我们的工作和生活。在行文规范性较强的法律或商业文书翻译里,机器翻译已经逐渐比人工翻译更省时省力,甚至质量更高。不乏有人认为,按照机器的学习速度,十年后就连文学翻译也会是 AI 的天下。机器学习的优越性固然可喜,但最近也有学者注意到了:机器学习用的多是大数据所收集的语料库,因此 AI 可能也“学到”了人类的语言习惯,甚至包括其中所含的性别偏见。学者 Dora Vargha 最先发推特提出了这个问题:匈牙利语的第三人称代词没有性别之分,但是用谷歌翻译进行语言间的转换时,输出的结果却可能根据性别偏见给主语定下性别:
via 《我,机器人》
前两周,豆瓣和微博等社交媒体上又掀起了关于译者翻译和机器翻译的讨论。
翻译并不容易。语言间无法完全对应的词汇和不同的文化语境都让翻译注定成为一种磨损乃至误读。即使忠于原文,但用词的细微差别、节奏的改变和语言习惯的不同都可能让译文失去原文的风格。
via 《演员请就位》
近年来随着人工智能技术的发展,谷歌翻译、有道、DeepL 等翻译软件都在极大地改变着我们的工作和生活。在行文规范性较强的法律或商业文书翻译里,机器翻译已经逐渐比人工翻译更省时省力,甚至质量更高。不乏有人认为,按照机器的学习速度,十年后就连文学翻译也会是 AI 的天下。
机器学习的优越性固然可喜,但最近也有学者注意到了:机器学习用的多是大数据所收集的语料库,因此 AI 可能也“学到”了人类的语言习惯,甚至包括其中所含的性别偏见。
学者 Dora Vargha 最先发推特提出了这个问题:匈牙利语的第三人称代词没有性别之分,但是用谷歌翻译进行语言间的转换时,输出的结果却可能根据性别偏见给主语定下性别:
via DoraVargha/Twitter
“聪明”属于男性,“漂亮”属于女性;男人“阅读、建造、教书、赚钱”,女人“洗碗、缝衣、做饭、带孩子”;他是“教授”,她是“助手”。
从匈牙利语翻成中文也一样。我们把英文的“他很漂亮,她很聪明”翻译成匈牙利语,再复制翻成中文,却变成了“她很漂亮,他很聪明。”
人称代词不分性别的马来语也同样如此,从马来语译入英语,所有的职业都划分好了性别:“医生”是“他”,“画家”是“他”;“护士”是“她”,“舞者”是“她”。
via bani haykal/Twitter
网友们还试了菲律宾语、爱沙尼亚语等,无一例外。
“
他在做研究。
她在洗衣服。
他在玩。
她在照顾孩子。
他工作。
她在跳舞。
他在开车。
”
via //.\ /Twitter
“
她很漂亮。她很善良。
他很聪明。他很强壮。
他是总统。他是医生。
她是清洁工。她是美发师。
她是老师。
他是工程师。他决定。
”
via kaiju_kirju/Reddit
更讽刺的情况出现在芬兰语里。芬兰语同样不区分“他”和“她”,而且芬兰经常因为政府中女性官员所占比重之大而出现在各种媒体宣传中。
两年前,年仅 34 岁的新任女总理马林成为芬兰历史上最年轻的政府首脑,新政府 19 位部长中 12 位为女性。此外,联合执政的 5 个党派中,4 党党首均为女性。上一位芬兰女总统的执政时间更是从 2000 年到 2012 年,长达 12 年之久。
然而即便芬兰已经处在性别平等的先锋地带了,从芬兰语翻译出来的句子仍然带着传统的性别约束。“首相”和“总统”似乎毫无悬念地对应着“他”。
“
他是首相。他是总统。
她编织。她照顾孩子。
他教书。他画画。他在看电视。
她做早餐。她做晚餐。他工作。
”
via laura olin/Twitter
此前,谷歌也启动了一项“改写”计划,人工对机器翻译的结果进行审核和修改,以此来解决 AI 的理解错误问题或是修改不准确的译文。用户每一次使用谷歌翻译,也可以在译文里进行修改并提交,帮助谷歌翻译获取更多的语料。
然而,人的时间和精力毕竟有限,而机器抓取和学习材料却速度飞快。靠人工修改来调整译文就像愚公移山。例如同样是匈牙利语里的一句不带性别的 “ Ta 赢了”,谷歌翻译在英语里已经给出了不同性别的选项,但在中文里还是只有男性的版本。
近年来,欧美国家也提出可以用复数 “They” 来表示不区分性别的第三人称单数,中文非正规的语境下也经常会用到 “Ta” 来代替“他/她”。然而这又会带来更多的语法问题,不是一个简单的代码修改就能解决的。
无论如何,这样的翻译毕竟不是 AI 本身的问题。这和原生家庭与社会对小孩潜移默化的影响是一样的。AI 就像是孩子,它遵循着设计者给出的规则,以抓取到的语料为材料学习。它还在学习,还在发展,因此总是会出现理解错误,总是会闹出笑料:
via 果壳/weibo
也因此它只是一面镜子,映出我们日常生活中所使用的语言,而语言里又体现着我们的思想和观念。
左右着 AI 思维的恰恰是人类本身。如果我们日常生活中充斥着性别对立与偏见,在这样的环境里成长的年轻人也很难跳出这种窠臼。
参与了这场讨论的艺术家 Bani Haykal 也表示:“我们面对的不是技术问题,而是文化问题。不是说我们把机器翻译的这个错误修正就可以了,我们真正要改的是内核。是我们需要更多元、更重视自由平等、更富包容心的技术人员,他们要意识到这些问题并且勇于作出改变。”
我们需要的是更多元的社会文化,是有一天我们的课本上可以出现“他在带小孩,她在工作” “她是医生,他是护士” “他很漂亮,她很聪明”,是每一个人都不被身份与性别限制,是有一天机器翻译能映照出一个有多样选择、不带偏见的社会。