|
|
人工智能揭示刻板印象随时代而变 |
美国100年来对女性及少数族裔看法改观 |
图片来源:Debrocke/ClassicStock
本报讯 当过去的已经逝去,你又如何衡量那时的陈腔滥调如何变化?你可以阅读人们写作的东西,并记录下这些刻板印象,但偏见往往比一个简单的词语更加微妙。
研究人员如今正在开发人工智能用来帮助解决这个问题。一项新的研究分析了这些刻板印象的进化过程,这就像时过境迁,人们已经不再使用软盘一样。
为了量化偏见,一个研究团队转向求助于一种被称为“机器学习”的人工智能,它允许计算机分析大量的数据并自动找到其中的模式。
研究人员设计了他们的程序用以使用嵌入的词汇。通常,一串数字代表一个单词的意思,而这些单词的意思是基于文本中的周围其他单词所考量的。例如,如果人们倾向于把女性描述为情绪化的,那么“情绪”这个词语会比“男人”这个词汇更频繁地出现在“女人”的旁边,而文字的嵌入将会把它挑出来——“情绪”的嵌入将会比“男人”更加接近“女人”。而这便是对女性的一种偏见。
研究人员首先想看看,嵌入是否能很好地反映刻板印象。
通过对几十年来出版的英语文本进行分析,研究人员发现,他们的程序所嵌入的显然与来自同一时期的性别和种族刻板印象的调查结果相一致。随后,研究人员利用从20世纪头10年到90年代,美国的报纸、书籍和杂志上使用的2亿个词汇,分析了那些没有被调查过的情绪。
研究人员最终发现,几十年来,与能力相关的词汇——比如“足智多谋”和“聪明”——正在慢慢变得不那么男性化。但是与外表有关的词语——比如“迷人”和“居家”——却依然没有太大的变化。在过去的几十年里,这些词汇的嵌入仍然明显与“女性”有关。
而其他的研究结果则集中于种族和宗教——亚洲人的名字与局外人的联系变得不那么紧密了,而在一个单独的数据集(从1988年到2005年的美国《纽约时报》中获取)中,与恐怖主义有关的词汇在1993年和2001年纽约市世界贸易中心遭袭后,变得与某些组织关系更加密切。
研究人员指出,来自其他时代和其他地方的人们可能不会告诉你他们的偏见,但他们也无法隐藏自己的偏见。
加利福尼亚州斯坦福大学Nikhil Garg和同事在最近出版的美国《国家科学院院刊》上报告了这一研究成果。
无独有偶。在之前的另一项研究中,当被要求画一幅科学家的画像时,目前约有1/3的美国儿童会勾勒出女性形象。这是自上世纪60年代以来出现的重大转变。在一项分析中,心理学家将在1996~2016年开展的78项“画一名科学家”研究的结果综合在一起,其中涉及约2万名从幼儿园到高中的美国少年儿童。上世纪六七十年代,99.4%的儿童画出的是男性科学家。这一比例在1985~2016年降至72%。到本世纪头10年,约1/3的画作描绘的是女性科学家。(赵熙熙)
《中国科学报》 (2018-04-09 第2版 国际)