教师竟让AI代批作业!Anthropic报告揭示教育AI的惊人新用途

在教育领域,人们对AI的关注大多集中在学生会受到怎样的影响。许多人担心,AI可能诱发作弊、侵蚀批判性思维,从而降低教育质量。与此不同,Anthropic最新的教育报告聚焦于教师对课堂AI的看法——并发现了一些令人意外的实践方式。

AI公司深知用户在把AI当作“副驾驶”或“辅助工具”与让它自动化完成工作之间的矛盾。Anthropic的分析展示了教育工作者是如何在这两者之间取舍的,而这些选择往往因情境而异。

为完成本报告,Anthropic对Claude.ai(其聊天机器人)与高校邮箱关联的免费与付费账户之间的匿名对话进行了分析,并筛选出2025年5‑6月期间涉及教育任务的对话。期间共发现74,000条涉及制定教学大纲、批改作业等任务的对话。

公司随后把每条对话对应到美国劳工部职业信息网络(ONET)数据库中最匹配的教育任务类别。另外,Anthropy还结合了对22位东北大学早期采用AI的教师进行的调查与定性研究,以强化分析结果。

完整的研究方法可在报告中查阅,下面是主要发现。

Anthropic发现,教师使用AI最常见的场景是课程开发(57%)和学术研究(13%)。在一个相对较小的使用场景中,7%的教师会让Claude “评估学生表现”,包括提供反馈、依据评分标准打分、以及汇总评语——尽管多数教师普遍认为批改作业并不是AI的最佳用途。

当教师使用Claude批改作业时,近48.9%的情况下会实现自动化。Anthropic指出“即使教师对自动化评估任务存有顾虑,而且我们调研的教师也将此列为AI效果最差的领域,实际使用率仍然如此之高。”

相比之下,报告显示教师更倾向于让AI辅助 教学、撰写科研基金申请、学业指导、以及监督学术工作等任务。除批改之外,自动化倾向更高的任务还包括管理学校财务与筹款、维护学生档案、以及招生与注册——这些通常是行政负担较重的工作。

从这些选择可以看出,教育工作者更乐意让AI自动化繁琐、技术性强的任务,而在需要复杂思考和批判性判断的环节,则倾向于把AI当作合作伙伴。

Anthropic对“自动批改”比例偏高表示担忧——这相当于对教师把教学中如此敏感的环节交给AI的做法发出警示。该公司承认,这也反映出对AI在此任务上的适用性缺乏信心。

一位接受Anthropic访谈的东北大学教授也表达了类似顾虑,指出伦理与准确性问题“我曾尝试让大型语言模型(LLM)批改论文,但结果远不如我满意。从伦理角度看,学生付的是我的教学费用,而不是模型的使用费,我有道德责任做好评分(或在此过程中借助LLM)。”

即使是最小的使用场景,Anthropic仍把它列为第二大自动化任务。

报告写道“虽然目前尚不清楚AI生成的反馈在最终成绩中的占比,但我们的研究确实发现了教师在一定程度上将批改工作委托给Claude。”

数据中出现的其他独特用例包括为教学模拟创建法律情境、开发职业培训、撰写推荐信、以及制定会议议程。

东北大学的教师们还报告称,他们会使用AI进行自我学习,但Claude.ai的分析因筛选机制限制未能验证这一点。该校教师认为,教师之所以采用AI,主要是因为它可以 自动化繁琐任务、充当思考伙伴、并为学生提供个性化学习体验。

除了使用现有工具辅助课堂,教师们也在自行打造AI应用。例如,Anthropic表示,教师常利用其Artifacts功能(无需代码即可创建应用)来开发“交互式教学材料”。这些创作包括互动教育游戏、评估与测评工具、数据可视化、学术日历与排课系统、预算规划等。

恰逢新学季来临,AI公司纷纷推出面向学生和教师的新品。Anthropic最近上线了Claude.ai的Learning Mode和Claude Code(对应OpenAI的Study Mode),两者均采用苏格拉底式提问,鼓励与用户的互动而非直接给出答案。与此同时,文字转语音应用Speechify推出了NotebookLM AI播客工具的竞争产品,Google也将原价每月20美元的AI套件免费开放给大学生使用。

抛开AI在教育中的争议不谈,大学与企业的合作往往利润丰厚——而让学生在艰难学期依赖这些工具,也能为供应商带来持续收入。教师本身工作负荷大、倦怠感强,尤其在COVID‑19之后出现大量教师离职的背景下,教育者开始接受用AI自动化部分工作的现象并不令人意外。面对AI渗透课堂、缺乏明确政策或厂商指引的局面,行业还能否保持客观的担忧?

AI在课堂的应用仍处于萌芽阶段,未来走向尚不明朗。眼下,AI公司正积极介入并塑造教育的复杂未来。最终,个别学校和大学的政策可能决定具体走向,但在这些工具随手可得的前提下,监管的空间仍然有限。


(科技责编:拓荒牛 )