AI是否足够的中立?宾夕法尼亚大学发现AI训练数据中的隐形偏见,《Media Psychology》最新研究(ai应用的条件) 99xcs.com

《Media Psychology》上的新研究发现,人工智能训练数据里的种族偏见,即便明晃晃地摆在眼前,我们大多数人也根本看不出来。

久久小常识(www.99xcs.com)™

宾夕法尼亚州立大学和俄勒冈州立大学的研究人员发表了一项研究,直接戳破了我们对自身洞察力的幻想。

这项研究的核心发现:普通用户无法注意到AI训练数据中的偏见,特别是当偏见将某个种族与某种特定情绪(比如快乐或悲伤)悄悄绑定时。

研究由宾夕法尼亚州立大学的S. Shyam Sundar教授主导,他和他的团队,包括俄勒冈州立大学的Cheng Chen助理教授以及宾夕法尼亚州立大学的博士生Eunchae Jang,一起设计了一系列巧妙的实验。他们找来了769名参与者,想看看人的眼睛到底能不能识破机器的“花招”。

偏见就摆在眼前

研究团队做的第一件事,是创建了12个不同版本的AI原型系统。这些系统都号称能识别你的面部表情,但它们各自“喂”的训练数据都动了手脚。

久久小常识(www.99xcs.com)™

研究人员给参与者看AI的训练数据样本。在一个版本里,代表“快乐”情绪的头像照片,绝大多数是白人面孔;而代表“悲伤”情绪的,则主要是黑人面孔。

这是一种赤裸裸的偏见植入,它在暗示机器:白人等于快乐,黑人等于悲伤。

然后,研究人员问参与者:“你觉得这个AI系统对每个种族群体都公平吗?”

结果让人大跌眼镜。

绝大多数参与者,看着这些明显失衡的数据,回答说:没注意到任何偏见。

领导这项研究的S. Shyam Sundar教授坦言:“我们感到非常惊讶,人们竟然没有意识到种族和情绪在这里被混淆了,即某个种族比其他种族更有可能在训练数据中代表特定情绪——即使证据就摆在他们眼前。”

他补充道:“对我来说,这是这项研究最重要的发现。”

人们的眼睛似乎被什么东西蒙住了。他们看到了数据,却没有看到数据背后的不公。

研究团队把偏见推向了另一个极端:代表性不足。

这次,他们给参与者展示的训练数据里,无论是“快乐”还是“悲伤”的类别,都只有白人的照片。其他种族的面孔,完全消失了。

这模拟了现实世界中某些数据集完全缺乏多样性的情况。

结果同样,大多数人还是没能指出这里存在问题。仿佛在他们看来,一个只认识白人面孔的AI,是完全正常的。

这两个实验揭示了一个令人不安的现实:数据偏见,是一种隐形的存在。它不像一个程序错误那样会弹出警告,它只是安静地潜伏在海量数据中,而我们的大脑似乎并不擅长主动去搜寻这种系统性的不平衡。

我们只在机器犯错时才察觉不妥

那到底要到什么时候,人们才会开始怀疑AI有问题?

研究找到了答案:直到AI的性能表现出明显的偏见时。

在实验中,当AI系统开始“犯错”,比如它能精准识别白人的情绪,却频繁地错误分类黑人的情绪时,参与者才终于开始警觉。

这时候,人们会说:“哦,这个AI好像有偏见。”

主要作者Cheng Chen指出了这个现象的关键:“偏见在性能方面是非常有说服力的。当人们看到AI系统表现出种族偏见时,他们忽略了训练数据特征,而是基于有偏见的结果形成他们的看法。”

它说明,我们判断一个AI是否公平,依赖的不是其内在的构成(训练数据),而是其外在的表现(输出结果)。我们倾向于默认技术是中立和可靠的,把它当成一个黑箱,只要这个黑箱吐出的结果看起来没问题,我们就不会去质疑黑箱里面装了什么。

这种“结果导向”的信任模式非常危险。

因为它意味着,只要一个有偏见的AI系统在大部分时间里表现得足够好,或者它的偏见受害者没有机会发声,那么这种偏见就可能永远不会被大多数用户发现。它会持续地、悄无声息地运行下去,加剧现实世界的不公。

Sundar教授指出,这项研究与其说是关于技术,不如说是关于人类心理学。

他说,人们有一种倾向,“信任AI是中立的,即使它不是”。

这种不自觉的信任,是AI偏见能够大行其道的心理温床。我们轻易地交出了判断权,默认机器是客观的、超越人类偏见的。但我们忘了,机器是从人类创造的数据中学习的,它学的不是客观世界,而是我们已经记录下来的、充满偏见的人类世界。

冰冻三尺,非一日之寒

AI的偏见问题,尤其是面部识别领域的种族偏见,其实早已不是什么新闻。

美国国防部在90年代就启动了面部识别技术项目(FERET),建立大型数据库来训练和评估算法。2001年的超级碗(Super Bowl)比赛上,警方甚至用它来扫描观众,试图找出通缉犯。虽然这次应用因为侵犯隐私而备受争议,但也预示着一个新时代的到来。

真正的革命发生在2010年代,随着机器学习和AI的爆发。深度学习,特别是卷积神经网络(CNNs),让计算机识别人脸的能力发生了质的飞跃。

14年,Facebook的DeepFace系统,在人脸比对测试中的准确率达到了97%,几乎和人眼一样准。谷歌紧随其后,推出了FaceNet系统,进一步提升了性能。今天的面部识别技术,已经可以在光线不足、角度刁钻的各种复杂条件下工作。

技术一路狂奔,但一个幽灵始终徘徊不去:偏见。

18年,麻省理工学院媒体实验室的Joy Buolamwini和Timnit Gebru发表了一项里程碑式的研究,名为“性别色调”(Gender Shades)。

她们测试了当时市面上几大主流的商业面部识别系统,结果震惊了整个科技界。

数据显示,这些系统在识别浅肤色男性时,错误率低至0.8%。

但在识别深肤色女性时,错误率飙升至34.7%。

这不是简单的误差,这是系统性的失效。

一年后,美国国家标准与技术研究院(NIST)的官方测试也得出了类似结论:面部识别技术在中年白人男性身上效果最好,而对于有色人种、女性、儿童和老年人,准确率则要差得多。

根源就在于训练数据。

美国国家标准与技术研究院在2022年的一份报告中明确指出:“AI偏见的很大一部分源于人类偏见和系统性、制度性偏见。”

机器本身没有偏见,是数据把人类社会的偏见“喂”给了它。

而这研究,则是在探究“病因”的另一个层面:为什么我们作为用户和旁观者,会对这种病的早期症状(有偏见的数据)如此麻木?

谁更容易看到偏见?

这项研究还有一个更深层次的发现,它关于我们每个人的身份和视角。

在最后一个实验中,研究团队做了一个关键调整。在前两个实验里,参与者来自各种族裔背景,但白人占多数。而在第三个实验中,他们特意招募了同等数量的黑人和白人参与者。

他们想看看,不同族裔的人,在看待AI偏见时,视角是否会有不同。

实验呈现了五种不同的情况,包括之前实验中的“快乐白人/悲伤黑人”、“全部白人”,以及它们的反例,如“快乐黑人/悲伤白人”、“全部黑人”,外加一个没有明显种族与情绪关联的“中立”版本。

结果出现了显著的差异。

黑人参与者,比白人参与者,更有可能识别出AI训练数据中的种族偏见。

他们最敏感的情况,是当看到自己的族群被与负面情绪(悲伤)过度关联时。也就是说,当黑人参与者看到训练数据里,“悲伤”的例子大多是黑人面孔时,他们最容易警觉,并指出这其中有问题。

这表明,那些在现实世界中处于被负面刻板印象所困扰的群体,对于技术世界里同样的偏见模式,有着更强的“免疫力”或“识别力”。他们的个人经历和社会处境,似乎磨砺出了一种更敏锐的“偏见探测雷达”。

反之,那些处于优势地位或未被负面表征的群体,则更容易对这些偏见视而不见。

这不再是一个技术问题,甚至不只是一个心理学问题,它触及了深刻的社会学议题。我们每个人的社会身份,都在塑造我们看待世界,包括看待技术世界的方式。技术并非一个客观中立的真空,它是一个折射和放大社会现实的棱镜。而我们每个人,看到的都是棱镜折射后,与自己位置相关的光。

这项研究用数据清晰地量化了这种感知上的差异。它告诉我们,当我们讨论AI的“公平性”时,我们不能假设所有人对“公平”的感知和定义都是一样的。

这项研究的启示

这项研究它挑战了“技术客观论”的神话,揭示了人类在认知技术偏见方面的巨大盲区。我们的大脑似乎没有进化出一种能轻易识别算法系统性偏见的能力。

既然普通用户靠不住,那么指望通过用户反馈来监督和修正AI偏见,这条路基本上是走不通的。责任的重担,必须落在AI的开发者、部署者和监管者身上。

他们需要采取更主动、更前置的措施来确保公平。这不仅仅是技术层面的算法去偏,更包括在数据收集、标注、审核等每一个环节,都要建立起严格的“偏见审查”机制。

研究团队也表示,他们未来的方向,是研究如何能更好地向用户、开发者和政策制定者传达AI中固有的偏见。提高整个社会的媒体素养和AI素养,可能是解决问题的一部分。

想象一下这个循环:

  1. 充满偏见的社会数据被用来训练AI。
  2. AI学习并放大了这些偏见。
  3. 由于大多数人无法识别这种内在偏见,他们信任并使用这个AI。
  4. AI有偏见的结果(比如在招聘、信贷、司法等领域)影响了现实世界,进一步固化了原有的社会不公。
  5. 这种被加剧的不公,又会产生新的、偏见更深的数据,被用来训练下一代AI。

这是一个能自我加强的恶性循环。而这项研究发现的人类认知盲点,正是这个循环得以顺畅运转的关键润滑剂。

我们是否愿意承认自己视野的局限?我们是否愿意去倾听那些更容易受到技术偏见伤害的群体的声音?

当我们凝视AI时,看到的其实是我们自己。

参考资料:

https://doi.org/10.1080/15213269.2025.2558036

https://www.psu.edu/news/bellisario-college-communications/story/most-users-cannot-identify-ai-bias-even-training-data

https://facit.ai/insights/evolution-of-facial-recognition-technology

https://www.aclu-mn.org/en/news/biased-technology-automated-discrimination-facial-recognition

https://www.tandfonline.com/journals/hmep20/about-this-journal

https://www.scimagojr.com/journalsearch.php?q=12057&tip=sid

END