- Published on
算法的偏见性与人文学反思
一个学生向AI图像生成器输入了"CEO"。结果是可以预料的——中年白人男性。输入"护士",出来了女性图像。输入"罪犯"……学生沉默了。这就是算法偏见。与代码是客观的这一信念相反,算法学习并放大了世界的偏见。从人文学角度理解这一点,并批判性地应对,是当今教育工作者的使命。
目录
- 什么是算法偏见
- 偏见的类型与产生原因
- 算法偏见造成的社会后果
- 从人文学角度的反思
- 在课堂中处理算法偏见的方法
1. 什么是算法偏见
定义:隐藏在代码中的不平等
算法偏见(Algorithmic Bias)是AI系统对特定群体系统性地产生不公平结果的现象。"系统性"这一点很重要——不是偶然发生,而是反复发生。
典型案例
- COMPAS再犯预测系统:美国法院使用的这个系统,对黑人被告的再犯风险预测高于白人的倾向得到了证实
- 亚马逊招聘AI:发现偏向男性申请者的偏见后被废弃
- 人脸识别技术:对有色人种、女性的误识率显著偏高
- 推荐算法:强化特定内容消费模式,创造偏颇的信息环境
为什么这很重要
算法被越来越多地用于重要决策。贷款审查、求职材料通过、保险费计算、医疗诊断优先级。当带有偏见的算法做出这些决定时,那就成为数字歧视。
2. 偏见的类型与产生原因
数据偏见
AI从数据中学习。如果那些数据带有偏见,AI也会带有偏见。如果某个群体历史上受到了不公正对待,那段历史就反映在数据中。过去的犯罪记录数据包含了被更多稽查地区的数据。AI将其作为"客观模式"来学习。
设计偏见
制造者的假设反映在系统中。
- 谁在制造AI?(硅谷特定人口群体)
- 被设计为优化什么?
- 想象了哪些使用场景?
评估偏见
衡量性能的标准本身可能带有偏见。
- 以谁的经验为标准来衡量"准确度"?
- 对谁来说错误更是严重的问题?
反馈循环
带有偏见的AI的结果再次积累为数据,偏见就会被强化。在被更多监控的地区部署更多警察,就记录下更多犯罪。这再次成为部署的依据。偏见的自我强化循环。
3. 算法偏见造成的社会后果
不平等的数字固化
当社会不平等被算法学习时,那种不平等就被"客观系统"所正当化。"算法这样判断了"这句话给偏见披上了科学的外衣。不平等更加固化,对其发起挑战变得更加困难。
自动化偏见的规模
一位人类审查员的偏见只影响他负责的范围。算法的偏见同时应用于数百万件决定。偏见的规模和速度达到了前所未有的水平。
责任的空白
"系统决定了"这句话模糊了责任归属。谁对带有偏见的结果负责?开发算法的开发者?购买并使用它的机构?生产训练数据的社会?这种责任的分散使受害者的救济变得困难。
4. 从人文学角度的反思
技术不是价值中立的
社会学家兰登·温纳主张"人工制品具有政治性"。技术反映了制造它的社会的价值观、权力关系和利益结构。算法也一样。不存在"客观的代码",只有写代码的人类的选择。
解释学的反思
解释学者汉斯-格奥尔格·伽达默尔说,我们无法从前理解(Vorverständnis),即先入之见中自由。重要的不是消除先入之见,而是意识到它并通过对话来检视。算法设计中也需要这种反思。我们需要不断追问我们理所当然认为的是什么。
正义的问题
罗尔斯的正义论追问公正的程序和结果。森的能力理论追问每个人过自己想要的生活的实质性自由。算法偏见将这个正义的问题扩展到技术领域。算法公正吗?对谁?
多样性为何重要
人文学强调多元视角的价值。制造AI的团队的多样性——性别、种族、文化、学术背景——在减少算法偏见方面有实质性的重要作用。这超越了简单的包容价值,而是制造更好技术的实用性要求。
5. 在课堂中处理算法偏见的方法
学生探究活动
图像生成实验:在AI图像生成器中输入各种职业、角色词汇,分析结果。能看到什么模式?那些模式反映了现实还是歪曲了现实?
新闻源分析:对比不同学生的社交媒体信息流。算法向每个人展示了怎样的世界?
搜索结果对比:在不同平台上搜索同一关键词,对比结果。算法如何构建了不同的世界?
批判性问题训练
面对AI提供的结果,养成习惯性追问:
- 这个结果反映了谁的视角?
- 谁制造了这个算法,被设计为优化什么?
- 这个结果让哪些人受到不利影响?
- 可以对此提出异议吗?如何提出?
行动中的公民教育
超越了解和批判算法偏见,培养能够行动的公民。
- 对不公正的算法决定提出异议的方法
- 要求算法透明度的公民权利
- 数字空间中集体行动的案例
算法越来越多地决定我们看到什么、拥有什么样的机会、受到什么样的对待。批判性地解读这一点的能力,是这个时代公民的基本素养。教育必须培养这种素养。
您是否有过直接经历或目睹算法偏见的经历?如何在课堂中处理这个主题,一起来聊聊吧。
推荐一起阅读的文章