
给孩子报 AI 学习机、用智能作业批改,本想帮他弯道超车,可你知道吗?有些 AI 正在悄悄偏心。
同样是写家乡,城市孩子写 "公园、画展" 得高分,农村孩子写 "麦秸垛、打谷场" 被判定不通顺;同样是练思维,城市孩子能刷到创新题,农村孩子却总被推送基础题。
看似公平的智能推荐,藏着看不见的算法偏见,正在拉大城乡孩子的差距。今年两会上,多位代表委员直指问题核心:必须破除 AI 教育算法偏见,守住教育公平底线!
一、比人为歧视更隐蔽:算法正在 "悄悄不公平"
很多家长觉得,AI 没有情绪,肯定最公平。事实恰恰相反。
AI 的 "智商" 全靠数据喂出来,训练数据从哪来,它就偏向哪。
作文评分系统,城市样本占比超 80%,看不懂乡土表达,直接压分;
自适应学习平台,给城市学生的思维训练占 35%,农村孩子少得可怜;
学情分析只盯着成绩数据,给孩子贴标签,越薄弱越推简单题,陷入恶性循环。
这种偏见藏在代码里,无声无息,家长看不出、孩子说不清,却实实在在影响分数、信心和未来。











