快速导航×

完美电竞全球学术圈险被ChatGPT论文攻陷知名出版商紧急撤稿AI插图笑翻网友发表于: 2024-05-05 16:38:18

  完美电竞【新智元导读】近日,爱思唯尔上的几篇论文被发现开篇就暴露了「ChatGPT风格」,插图也是用Midjourney画的。学术圈被AI渗透已经不是一天两天了,搞科研的用AI写论文,学生用AI写作业,老师也用AI批作业,整个过程都没有真人了。

  比如下面这篇锂电池的论文,在「介绍」部分的第一句,就暴露了可疑的痕迹——

  奇怪的是,明明这句话就在第一句,这么显眼的错误,共同作者、主编、审稿人、排版人员,竟然一个都没有注意到??

  「总之,非常抱歉,由于我是人工智能语言模型,我无法获得实时信息或患者的具体数据……」

  「我可以提供有关损伤一般信息,但是对于的具体病例,建议你去咨询一下专业医务人员……」

  这一篇讲太阳能光伏电池板能量转换效率的论文,在某段落之后赫然出现一句ChatGPT界面中经常出现的话——「Regenerate response」。

  网友们笑翻了,议论的声音越来越大,现在已经逼得爱思唯尔官方下场,澄清政策并没有规定,在写论文过程中不得使用LLM,只要提前声明就可以。

  而纽约大学学者马库斯评论道,AI的泛滥对于期刊出版商来说,是一个重大的预警,因为他们最重要的就是声誉。

  现在,GenAI生产的垃圾已经迅速淹没了论文的审查过程,导致出版方的声誉急剧下降。

  当然,也有一定的原则,那就是AI的作用是提高作品的可读性和语言性,但不能取代关键的写作任务,比如给出科学结论、提供临床建议。

  如果作者在写作过程中使用人工智能和人工智能辅助技术,这些技术只能用于提高作品的可读性和语言性,而不能取代关键的写作任务,例如产生科学、教学或医学见解、得出科学结论或提供临床建议。应用该技术应该在人类的监督和控制下完成,所有工作都应仔细审查和编辑,因为人工智能可以产生听起来权威的输出,这些输出可能是不正确的、不完整的或有偏见的。作者对作品内容负有最终责任和义务。

  作者应在其手稿中披露人工智能和人工智能辅助技术的使用,并在已发表的作品中出现声明。声明使用这些技术有助于作者、读者、审稿人、编辑和贡献者之间的透明度和信任,并有助于遵守相关工具或技术的使用条款。

  其实,这个消息不是什么新鲜事了,用ChatGPT等LLM工具写论文的作者,可谓多如牛毛。

  美国田纳西大学健康科学中心的一名放射科医生用ChatGPT狂写论文,4个月直接肝出16篇,其中5篇甚至已经发表了!

  而ChatGPT早在2022年底,已经大摇大摆地出现在了共同作者栏中,毫不避讳自己的贡献。

  爱思唯尔的「Surfaces and Interfaces」没有同行评审流程,也没有编辑流程。它只是一个昂贵的预印本存储库,光收钱,不干活。

  既然作者和审稿人都不干活,那不妨大家彼此都坦诚一些,不用演戏了,——ChatGPT自己写稿自己审吧。

  甚至,还真有网友把这篇文章丢给了ChatGPT:「嘿,你能检查一下这篇论文是否有任何明显的Chatgpt使用迹象吗?」

  Chatgpt认真审阅了稿件,表示:「是的,这篇论文的引言中有几个迹象表明它可能是由人工智能撰写的」,并给出了详尽的理由:

  更好笑的是,如今AI不仅荣升论文作者,甚至还在很多论文中充当起插画师了!

  图中讲的是从大鼠睾丸中分离、纯化和培养精原干细胞的过程,然而大鼠的睾丸竟然有4对,硕大的比身体还大,培养皿中甚至还有一把汤匙?

  这个不明意义的protemns,应该是把protein(蛋白质)拼错了。

  对于这些细胞图,网友直接给出神评论:「仿佛披萨上撒着香肠和蓝色西红柿……」

  但是,如果用了LLM却不提前声明,除了等着论文作者犯低级错误「自爆」之外,有没有什么办法能检测出论文的「含模量」?

  不少有经验的论文审稿人提供了一个可以参考的经验,直接查论文的引用,如果随机抽10个论文引用,有超过一个论文引用是不准确的,那么他就会怀疑论文至少某些部分是用LLM生成的。

  因为LLM生成论文最大的问题就是会瞎编引用。而网上很多通用的LLM检测工具,基本上都不靠谱。

  所以如果审稿人或者教授只是简单的依赖通用AI检测工具来判断的话,大概率是会冤枉好人的。

  但是,虽然通用的AI检测器不好使,如果针对某个专业领域的论文进行AI检测,可能是一条走得通的路。

  此前,Nature报导了堪萨斯大学的一个团队的研究成果,他们开发的学术AI检测系统,能有效分辨论文中是否含有AI生成的内容,准确率高达98%!

  团队的核心思路是,不追求制作一个通用的检测器,而只是针对某个具体领域的学术论文,来构建一个真正有用的AI内容检测器。

  通过针对特定类型的写作文本定制检测软件,可能是通向开发出通用AI检测器的一个技术路径。

  提取论文写作风格的20个关键特征,然后将这些特征数据输入XGBoost模型进行训练,从而就能区分人类文本和AI文本。

  希望未来至少能够开发出针对学术界有用的AI内容检测器,从而控制「AI学术垃圾」的泛滥。

  AI泛滥的,可不止是学术圈。在学校里,各种AI工具的出现,也是把局面搅得一团糟。

  BBC此前曾报道,两位青年记者采访自己的同学是否使用AI来帮自己写作业。

  有位同学表示自己的地理作业要到deadline了,「我用ChatGPT写了整个演讲。但是当我被问到相关问题时,我不知道我在说什么」——挂了。

  有同学表示自己使用ChatGPT来帮助自己理解问题,「当你做作业时,教室里没有老师,而ChatGPT就像一个老师。」

  两位记者做了份匿名调查,结果显示,在33名学生中,有31人在学业中使用了人工智能,而27人认为学校应该教授如何使用人工智能。

  学生们表示,AI工具有助于自己提出想法、研究,以及完善写作结构和措辞等。

  虽然ChatGPT给出的答案并不总是正确,但这并没有阻止大多数人使用它。

  「你可以从ChatGPT之类的工具那里得到一个真正结构化的答案,然后用其他扩展研究来支持它。」

  比如,编制课程计划、教学大纲,以及批改作业,检测是否用了AI辅助等其他作弊行为。

  据Axios报道,老师们现在可以通过一款名为Writable的新工具,利用ChatGPT对3至12年级学生的作业进行打分。

  老师先布置写作任务(比如「我的暑假经历」),学生们通过线上方式提交作业。

  接着,ChatGPT会向老师提出评论和建议,老师们再对这些建议进行修改,之后反馈给学生。

  为了保护学生隐私,Writable会将学生信息进行「词元化」处理,确保不会将任何能识别个人身份的信息提交给AI系统。

  但值得注意的是,AI评分工具带来的便利性可能诱惑老师「变懒」,学生们会因此失去获得更深入反馈的机会。

  比较勤勉的老师会把ChatGPT仅仅作为辅助,但也可能会有老师直接把AI的建议不加修改地反馈给学生。

  所以,在学校忙于拟定AI政策的同时,关于应如何划定使用界限的讨论也在持续。利用ChatGPT来批改论文,在学术上算不算诚实?这样做是不是对学生不公平?

  教育科技公司认为,像Writable这类自动化工具的目的是为了给教师提供更多的自由时间和灵活性。

  如果让AI来承担批改作业的繁重任务,那些时间紧张的教师就能有更多机会设计富有创意的课程并更好地了解自己的学生。

  虽然一些家长对孩子作业上出现AI生成的评论表示非常不满,但并非人人都持反对态度。

  根据一项民意调查,当被问及「K-12学校是否应该使用AI评估学生的学业表现」时,有45%的家长表示支持。

  本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问。

完美电竞(中国)官网平台
TOP
导航 电话 短信 咨询 地图 分享