Published on

算法的偏见性与人文学反思

一个学生向AI图像生成器输入了"CEO"。结果是可以预料的——中年白人男性。输入"护士",出来了女性图像。输入"罪犯"……学生沉默了。这就是算法偏见。与代码是客观的这一信念相反,算法学习并放大了世界的偏见。从人文学角度理解这一点,并批判性地应对,是当今教育工作者的使命。


目录

  1. 什么是算法偏见
  2. 偏见的类型与产生原因
  3. 算法偏见造成的社会后果
  4. 从人文学角度的反思
  5. 在课堂中处理算法偏见的方法

1. 什么是算法偏见

定义:隐藏在代码中的不平等

算法偏见(Algorithmic Bias)是AI系统对特定群体系统性地产生不公平结果的现象。"系统性"这一点很重要——不是偶然发生,而是反复发生。

典型案例

  • COMPAS再犯预测系统:美国法院使用的这个系统,对黑人被告的再犯风险预测高于白人的倾向得到了证实
  • 亚马逊招聘AI:发现偏向男性申请者的偏见后被废弃
  • 人脸识别技术:对有色人种、女性的误识率显著偏高
  • 推荐算法:强化特定内容消费模式,创造偏颇的信息环境

为什么这很重要

算法被越来越多地用于重要决策。贷款审查、求职材料通过、保险费计算、医疗诊断优先级。当带有偏见的算法做出这些决定时,那就成为数字歧视


2. 偏见的类型与产生原因

数据偏见

AI从数据中学习。如果那些数据带有偏见,AI也会带有偏见。如果某个群体历史上受到了不公正对待,那段历史就反映在数据中。过去的犯罪记录数据包含了被更多稽查地区的数据。AI将其作为"客观模式"来学习。

设计偏见

制造者的假设反映在系统中。

  • 谁在制造AI?(硅谷特定人口群体)
  • 被设计为优化什么?
  • 想象了哪些使用场景?

评估偏见

衡量性能的标准本身可能带有偏见。

  • 以谁的经验为标准来衡量"准确度"?
  • 对谁来说错误更是严重的问题?

反馈循环

带有偏见的AI的结果再次积累为数据,偏见就会被强化。在被更多监控的地区部署更多警察,就记录下更多犯罪。这再次成为部署的依据。偏见的自我强化循环


3. 算法偏见造成的社会后果

不平等的数字固化

当社会不平等被算法学习时,那种不平等就被"客观系统"所正当化。"算法这样判断了"这句话给偏见披上了科学的外衣。不平等更加固化,对其发起挑战变得更加困难。

自动化偏见的规模

一位人类审查员的偏见只影响他负责的范围。算法的偏见同时应用于数百万件决定。偏见的规模和速度达到了前所未有的水平。

责任的空白

"系统决定了"这句话模糊了责任归属。谁对带有偏见的结果负责?开发算法的开发者?购买并使用它的机构?生产训练数据的社会?这种责任的分散使受害者的救济变得困难。


4. 从人文学角度的反思

技术不是价值中立的

社会学家兰登·温纳主张"人工制品具有政治性"。技术反映了制造它的社会的价值观、权力关系和利益结构。算法也一样。不存在"客观的代码",只有写代码的人类的选择。

解释学的反思

解释学者汉斯-格奥尔格·伽达默尔说,我们无法从前理解(Vorverständnis),即先入之见中自由。重要的不是消除先入之见,而是意识到它并通过对话来检视。算法设计中也需要这种反思。我们需要不断追问我们理所当然认为的是什么。

正义的问题

罗尔斯的正义论追问公正的程序和结果。森的能力理论追问每个人过自己想要的生活的实质性自由。算法偏见将这个正义的问题扩展到技术领域。算法公正吗?对谁?

多样性为何重要

人文学强调多元视角的价值。制造AI的团队的多样性——性别、种族、文化、学术背景——在减少算法偏见方面有实质性的重要作用。这超越了简单的包容价值,而是制造更好技术的实用性要求


5. 在课堂中处理算法偏见的方法

学生探究活动

图像生成实验:在AI图像生成器中输入各种职业、角色词汇,分析结果。能看到什么模式?那些模式反映了现实还是歪曲了现实?

新闻源分析:对比不同学生的社交媒体信息流。算法向每个人展示了怎样的世界?

搜索结果对比:在不同平台上搜索同一关键词,对比结果。算法如何构建了不同的世界?

批判性问题训练

面对AI提供的结果,养成习惯性追问:

  • 这个结果反映了谁的视角?
  • 谁制造了这个算法,被设计为优化什么?
  • 这个结果让哪些人受到不利影响?
  • 可以对此提出异议吗?如何提出?

行动中的公民教育

超越了解和批判算法偏见,培养能够行动的公民

  • 对不公正的算法决定提出异议的方法
  • 要求算法透明度的公民权利
  • 数字空间中集体行动的案例

算法越来越多地决定我们看到什么、拥有什么样的机会、受到什么样的对待。批判性地解读这一点的能力,是这个时代公民的基本素养。教育必须培养这种素养。


您是否有过直接经历或目睹算法偏见的经历?如何在课堂中处理这个主题,一起来聊聊吧。

推荐一起阅读的文章

算法的偏见性与人文学反思 | MINSSAM.COM