学生因使用带有人工智能“标志”的图像而在英语 HSC 考试中得了“F”
新南威尔士州的学生质疑 HSC 英语考试中用作刺激的“照片”是否实际上是人工智能生成的,考虑到学生自己使用人工智能的严格规定,引发了虚伪的指责。
周二,数千名学生参加的标准和高级英语试卷1是必修科目,主题是“文本和人类经验”。
问题 3 分 5 分,要求学生比较伊丽莎白·斯特劳特 (Elizabeth Strout) 的《我的名字是露西·巴顿》 (My Name is Lucy Barton) 中的摘录和一张布满电子设备和电线、眺望大海的桌子的图像,如何提供“个人看待自己的方式的视角”。环境”。
注册澳大利亚卫报的突发新闻电子邮件
在考试中,该图像被列为“照片”,没有进一步的归属。新南威尔士州教育标准局的发言人除了链接到其源文章外,并未确认该图像是否是人工智能生成的。
他们表示,学生是否认为该图像是人工智能生成的,对他们的成绩没有影响,并且将根据“他们如何利用图像作为刺激来回答问题”来评分。
然而,学生们在社交媒体上表达了他们的不满。
“我刚刚完成考试……人工智能一直让我分心,”其中一位写道。
“我不敢相信将这种人工智能图像添加到考试中的矛盾本质……如果你打算使用这项新技术,因为它更容易、更适合,为什么我们不能呢?我最大的烦恼是人工智能内容没有被标记,我想知道我在看什么,谢谢。”
该图片的来源是科技博主“Florian Schroeder”在medium.com 上发表的一篇题为“数字排毒的力量:通过关闭来释放生产力”的帖子。
在网上,施罗德(与一位著名的德国电视名人同名)形容自己“对人工智能充满热情”,并“将其牢固地融入到自己的日常工作中”。他是数据和人工智能杂志《AI Rockstars》的联合创始人。施罗德只有一张显示图片——这似乎是人工智能生成的演员图像。
根据 Nesa 关于在学校使用人工智能的政策,人工智能“永远不会取代强大的课程、有效的评估和良好的教学实践”,未经批准的使用是对学术诚信的违反。
评估任务和外部考试中提出的所有作业必须是学生自己的或得到适当的认可。 Nesa 还指出,人工智能可能“不可靠”,并且必须“始终由人类监控”。
报告称:“人工智能可能会产生有偏见和/或有毒的内容、虚假信息或事实,这些内容并非基于真实数据或事件以及虚假引用。”
悉尼大学英语和写作讲师本杰明·米勒博士正在与该大学的教育创新团队合作研究生成人工智能的方法,他表示,学生们的反应可能更多地表明了他们感到措手不及的“惊讶”感。解决不同类型的文本。
“如果这促使我们思考如何让学生具备一套有助于使用人工智能工具和文本的关键技能,那么这是一个很好的结果,”他说。
“可能会有一种兴奋感——这是不可避免的未来,我们正在见证一个重大转变。
“现在……教育机构正在迎头赶上——虽然人们正在争论教师是否以及如何在课堂上使用人工智能,但学生们却没有机会练习分析。”
米勒表示,该图像具有人工智能的“标志”,这可能是艺术家的意图,也可能是使用人工智能生成程序的结果。
无论如何,他表示,人工智能制作的文本将“不可避免地”成为学生生活和工作世界的一部分,并引用了 Jazz Money 等艺术家探索人工智能与道德之间关系的例子。
“无论是人类生成的还是人工智能生成的,作者身份、意义和身份的问题都是一样的,”他说。 “教育必须跟上。”
在澳大利亚教师的社区页面上,一位用户鼓励读者就可能使用人工智能的问题向 Nesa 提出正式投诉。
“英语是一门依赖于在文本中寻找更深层含义的学科,HSC 学生如何在不可能有更深层含义的事物中找到更深层含义呢?”他们写道。
其他人则不同意,认为如果它是人工智能生成的,如果它被正确标记的话,它将是一个在上下文中合适的图像,而不是一张照片。
“这真的很及时,年轻人应该对此有很多话要说,”一位用户写道。
在考试的其他地方,美籍阿根廷作家埃尔南·迪亚兹以散文形式出现,澳大利亚作家凯特·莫顿也以她最新小说《归乡》的摘录出现。
年轻成人畅销书约翰·格林 (John Green) 出现在非小说类部分,摘录了他的散文集《人类世评论》(The Anthropocene Reviewed),英国作家兼记者詹姆斯·文森特 (James Vincent) 也因对测量的探索而出现在《超越测量》(Beyond Measure) 中。