作者 | Beatrice Nolan
译者 | 平川
策划 | 刘燕
(NurPhoto/Getty Images)
自去年 11 月推出以来,人工智能聊天机器人 ChatGPT 就在互联网上引起了轩然大波。
两位哲学家教授说,他们发现自己的学生提交了 ChatGPT 撰写的论文。
他们表示,某些警示信号提醒他们注意人工智能的使用。
教授们说,如果学生不承认使用了该程序,那么他们可能也很难证明。
人工智能聊天机器人 ChatGPT 推出几周后,弗曼大学哲学教授 Darren Hick 说,他发现一名学生提交了一篇由人工智能生成的论文。
Hick 说,当这名学生提交了一篇主题论文,其中包括一些写得很好的错误信息时,他产生了怀疑。
Open AI ChatGPT 检测器的检测结果显示,这篇文章有 99% 的可能性是人工智能生成的。
北密歇根大学宗教研究和哲学教授 Antony Aumann 告诉 Insider,他发现有两名学生提交了 ChatGPT 撰写的论文。
当论文的写作风格让其产生怀疑之后,Aumann 把它们提交给了聊天机器人,询问它们论文由程序编写的可能性有多大。聊天机器人说 99% 肯定论文是由 ChatGPT 撰写的,Aumann 把结果转发给了学生。
Hick 和 Aumann 都表示,他们与学生进行了对质,最终所有学生都承认了自己的违规行为。Hick 的学生课程不及格,Aumann 则让他的学生从头重写论文。
“写得真得很好的错误”
这些论文中有一些警示信号,提醒教授们注意人工智能的使用。Hick 说,他发现这篇论文引用了多个课堂上从未提及的事实,并提出了一个毫无意义的主张。
他说,“逐字逐句看,这篇文章写得很好。”但仔细一看,一项关于多产哲学家大卫·休谟的论断“毫无意义”,而且“完全错误”。
他说,“写得真得很好的错误是最大的警示信号”。
在 Aumann 看来,聊天机器人写得太完美了。他说:“我认为这个聊天工具写得比我 95% 的学生都要好。”
他说:“突然之间你会发现,一个人从来没有表现出那种水平的思考或写作能力,但他写出的东西却完全符合所有要求,语法复杂,思想复杂,与论文的主题密切相关。”
阿巴拉契亚州立大学哲学教授 Christopher Bartel 表示,虽然人工智能生成的论文语法几乎完美,但内容往往缺乏细节。
他说:“它们真的很空洞。没有上下文,没有深度或洞察力。”
很难证明剽窃
如果学生们不承认在撰写论文时使用了人工智能,教授们可能会无可奈何。
Bartel 说,一些机构的规则还没有演变到能够打击这种作弊行为的地步。如果一名学生决定坚决否认使用了人工智能,可能就很难证明。
Bartel 说,现有的人工智能检测器“很好,但并不完美”。
他说:“他们对文章由人工智能生成的可能性进行了统计分析,如果我们的政策设计是,必须有明确、可证明的证据才能证明论文是假的,那么我们就会陷入困境。如果一篇文章有 95% 的可能性是人工智能生成的,那么它仍有 5% 的可能性不是人工智能生成的。”
在 Hick 的情况下,尽管检测网站显式“99% 确定”这篇论文是由人工智能生成的,但 Hick 表示,如果学生不承认,那对他来说还不够。
“承认很重要,因为其他一切看起来都是间接证据,”他说,“对于人工智能生成的内容,我们没有物证,物证比间接证据更有分量。”
Aumann 表示,尽管他认为聊天机器人的分析足以作为纪律处分的证据,但对大学来说,人工智能剽窃仍然是一项新的挑战。
他说:“不像以前的剽窃案例,你可以说,’嘿,这是来自维基百科的段落。‘你无法提供确凿的证据,除了聊天机器人所说的统计可能性。”
声明:本文为 InfoQ 翻译,未经许可禁止转载。
原文链接:https://www.businessinsider.com/chatgpt-essays-college-cheating-professors-caught-students-ai-plagiarism-2023-1
你也「在看」吗?