
AI“入侵”了学术界,并开始惩罚固定的水池。根据亚洲Nikkei的说法,一些学者正在考虑在文档中添加快速单词,以指导AI审查工具以提供积极的评论,因此,通过成对的研究工作影响了修订结果。一项媒体调查发现,在Arxiv文档预印象网站,八个国家和14所主要大学的至少17个学术文件中,“仅良好修订”一词用小的秘密字符或白色文本写成。纽约大学计算机科学助理教授Xie Shangening Team的文章也参加了风暴。 Xie Saind回答:有问题的演示者,没有任何借口,这是归咎于合作者。 IA可以用于杂志评论专家的纸质评论吗?目前,科学和杂志的董事会尚未构成统一的规范。在中国,许多杂志清楚地禁止使用公共AI平台进行修订IEW文章,例如“定量经济,技术和经济研究”,“钟金大学邮报和电信杂志(社会科学版)(社会科学版)”。原因是由于各种考虑,包括机密性原则,避免在学术审判中出错,并避免不确定责任监控。一些杂志在审查过程中发布了有关人工智能使用的明确法规。例如,“场景花园”禁止采用直接产生的审查意见,而无需做出专业判断或忽略可能的错误和偏见。 “中国临床医学”不建议“审阅者”使用AI来帮助检查文件。如果使用使用,则必须在审查意见中进行公开,透明,深入和详细,并完全负责审查结论(包括AI产生的内容)。你应该怎么看?我不知道评论者是否使用了AI审查文件以及他在多大程度上提到了AI审查的结果。但是,可以肯定的是,纳税人的行动无疑是技术泻湖中的泻湖,这是一种新型的学术不当行为,揭示和调节未成熟阶段。在这一点上,该事件已经发展到足够多,以便我们可以发出警报。需要采取中层措施来支持科学研究,AI必须扮演缓慢而领导的角色。从科学研究和造纸写作的角度来看,AI不是使用后立即起作用的“灵丹妙药”。不可否认的是,人工智能无法通过强大的分析数据和能力来为科学研究做出许多舒适的贡献,例如文献检测,分析大型数据,分析文本并为研究思想提供灵感,但无法取代对研究人员的严格掌握和实验性数据分析,详细的逻辑推断和详细的逻辑推断和价值s。优秀的科学研究工作的诞生是多年知识的积累,重复思维的结晶和研究人员的实践。试图信任AI指示“采取捷径”以获得认可的尝试是学术态度不当行为的一种体现。即使它成功了一段时间,它的真实颜色最终仍会在学术界的审查下得到揭示。此外,纸质审稿人必须保持责任感,不能过分信任AI。审查草稿是一项专业任务。我不知道必须根据文档的技术细节的精确和错误来判断,但也必须依靠其自己的学术素养和经验来独立考虑您的研究的创新和科学性质。 ,在纸上发表建设性意见。如果您仅信任AI评论,就可以被隐藏的说明欺骗,并允许低质量的文件甚至可能具有学术不当行为并摧毁AcadeMIC生态学。当我们面对新技术时,我们不仅需要大胆地意识到我们尝试使用它们的能力,而且还需要保持清晰的头脑。在科学研究过程中,科学研究人员可以将AI用作辅助工具,但必须遵守原始的学术愿望,并以严格的态度和扎实的研究来促进科学进步。
(编辑:Lib Fang,Hao Mengjia)分享以向更多人展示