打开网易新闻 查看更多图片

爱思唯尔(Elsevier)出版的学术期刊《资源政策》(ResourcePolicy)八月刊发表了一篇研究论文,讨论了电子商务对发展中国家化石燃料效率的影响。这篇论文引起了人们的关注,因为其在文中描述,统计数据应该根据现实统计生成,而不是使用人工智能未经验证的数据。不过,任何与ChatGPT互动过的人可能都对这句话不陌生,因为人工智能聊天机器人在提供某些信息之前往往会提到它们的局限性。爱思唯尔的一名研究人员在其之前的推特上发布了该短语的截图,之后爱思唯尔开始调查。爱思唯尔全球传播副总裁安德鲁-戴维斯在给《连线》杂志的一份声明中表示,出版商正在调查人工智能在该文章中的使用。

爱思唯尔并不限制将人工智能工具用于写作辅助,但要求它们披露信息。出版巨头爱思唯尔在内部使用自己的人工智能工具来检查抄袭和完整性。不过,它不允许编辑使用外部人工智能工具进行文章审核。该研究的作者联系了爱思唯尔,爱思唯尔没有回复《连线》的置评请求,但研究人员正在配合。爱思唯尔发言人戴维斯说,作者的本意是利用人工智能来提高语言质量,这符合他们的原则。至于爱思唯尔今后将如何处理资源原则方面的问题,他们只表示正在调查,没有提供更多细节。

生成式人工智能的迅猛发展在许多领域引起了关注。在教育领域,高中和大学教育工作者担心可能出现作弊现象,新闻报道也揭露了低质量人工智能论文的发表。学术期刊目前面临的挑战是,作者可能将生成式人工智能作为大纲、草稿或完整论文提交,而不说明其目的。不同的期刊对此有不同的处理方法。收录美国医学会文章的《美国医学会杂志》网络版禁止将人工智能生成器列为作者,并要求披露其使用情况。科学不允许在未经编辑许可的情况下使用人工智能生成的文本、数字、图像或数据;《PLOSONE》要求人工智能的使用者提供有关工具的详细信息、如何应用该工具以及评估所生成信息的方法。《自然》禁止使用人工智能生成的图像和视频,并要求披露语言模型的使用情况。许多期刊的政策规定,作者有责任确保人工智能生成信息的有效性。

当研究人员在没有严格检查和披露的情况下,随意将人工智能生成的答案纳入自己的研究时,就会出现严重的可信度问题。不披露人工智能的使用意味着作者将生成的内容视为自己的创作,这可能导致剽窃指控。此外,还存在传播关于人工智能能够编造或呈现虚假事实的错误信息的风险。关于在科学和学术活动中使用人工智能的问题,美国国家环境健康科学研究所生物伦理学家大卫-雷斯尼克承认这是一个重大挑战。不过,他强调,生成式人工智能并不完全是负面的,它可以帮助研究人员,尤其是那些英语水平较差的研究人员,撰写出更高质量的论文。Resnick认为,人工智能可以提高写作水平,增加这些作者的论文被接受的机会。不过,他强调在工作场所使用人工智能时披露信息的重要性。

与检测剽窃的既定程序不同,目前很难识别学术论文中人工智能的广泛使用,因为没有简单明了的方法来识别人工智能的使用。有一篇资源战略论文引起了一位研究人员的注意,因为作者无意中提供了可能涉及大规模语言模型的暗示。

2021年,法国图卢兹大学计算机科学教授纪尧姆-卡巴纳克在学术论文中发现了一些奇特的表达方式,比如用"伪意识"代替"人工智能"。他和他的团队一起他和他的团队一起提出了文本生成器的概念,它可以识别难理解的短语或成堆的单词而不是清晰的行话。卡瓦纳积极关注有关使用人工智能生成器的期刊,是一位专注于资源政策研究的人士。

随着技术的进步,语言模型的能力也有了显著提高,使其作为写作伙伴更具说服力和吸引力。今年7月,两位研究人员使用ChatGPT在不到一小时的时间内成功完成了一篇完整的研究论文,凸显了聊天机器人在科学出版领域的潜力。虽然这项研究并不完美,但它凸显了印刷厂滥用这项技术的可能性。论文加工厂是按需发表科学论文的公司,可能存在问题内容。研究人员和机构面临发表研究成果的压力,但又没有时间或资源进行原创研究,他们可能会求助于印刷厂。在人工智能的帮助下,印刷厂可以更流畅地完成这一过程。然而,人工智能生成的论文可能会击中真正有价值的研究,这可能会导致关注度的变化和科学文献质量的稀释。

维克对人工智能生成的图像表征和文本生成器表示担忧。验证这些图像的真实性是一项具有挑战性的任务。一些研究人员提议对未发表的人工智能生成研究进行监管,并建议采用类似于期刊识别剽窃行为的审查程序。今年6月,堪萨斯大学化学教授希瑟-德赛尔参与了一项研究,该研究推出了一种工具,可以区分人类撰写的科学论文和ChatGPT生成的内容,准确率高达99%德赛尔说,该团队的重点是特定类型的写作,通过关注特定类型的写作来确保准确性。他强调,这是为了建立一个高识别率,该团队的重点是通过关注特定类型的句子来建立一个准确率高的工具,而不是通过准确率低的人工智能句子检测工具。

研究发现,ChatGPT生成的内容一般没有人类生成的内容复杂。它表现出更一般的引文风格,使用"其他"等术语而不是特定的群组名称,标点符号也较少。相比之下,人类作者更喜欢使用"然而"、"虽然"和"但是"等术语。值得注意的是,这项研究的重点是发表在《科学》杂志上的有限数据集。德泽尔指出,要提高该工具检测不同期刊上人工智能生成的文章的能力,还需要进一步的研究。该小组正在研究科学家如何使用该工具,以确保他们能够区分不同的情况。

如您对文章感兴趣,请关注我或给我留言