使用AI生成新闻内容时,存在以下潜在风险:
- 滥用AIGC技术生成虚假信息危害社会安定团结:AIGC技术可以被用来伪造身份实施电信诈骗、制造虚假证据用于勒索、制造虚假新闻操控舆论走向以及生成虚假日志欺骗日志审计。
- 降低使用门槛加剧虚假信息制造与传播风险:生成式大模型的快速发展使得制造与传播虚假信息的风险增加,因为它们具备强大的文本、图像和视频生成能力,为虚假信息的制造与传播提供了隐蔽和高效的渠道。
- 逻辑推理错误:AIGC在生成新闻报道时可能缺乏对逻辑结构和推理过程的理解,导致文章中出现不合理的推断或矛盾之处,从而误导公众的判断,对舆论产生混淆。
- 价值与意识形态的错误:AIGC的价值与意识形态问题带来了显性影响,可能在新闻报道中产生偏差。
- 提供不准确事实风险:任何技术在对复杂世界进行转译时,都无法做到100%准确,AI生成的内容可能包含“幻象”或虚构的成分。
- 算法透明意识不足:在自动化内容生成中,要么不披露算法的存在,要么不知道如何披露,导致公众对生成式AI技术尚未建立起良好的信任关系。
- 适用边界存争议:并不是所有类型的新闻都适用于机器自动化生产,特别是涉及敏感性数据、对伦理要求较高的报道,任何一个小的错误都可能引发系统性风险,有损媒体声誉。
- 新闻采编涉及的敏感性数据泄露风险:若将敏感数据输入AI系统,存在信息泄密、侵犯他人隐私权等风险。
- 算法矫正的窘境:偏见循环与话语风险:智能模型和算法对人类偏见和立场的复制和循环,主要来源于原始数据库、程序设计和人机互动,可能导致生成歧视言论的相关案例。
- 监管合规的大趋势:生成式AI面临的法律合规风险主要来自于“内容违法违规”和“知识产权侵权”等方面。使用生成式AI的企业必须进行合规性审查,以确保其应用符合相关法规和标准。
- 数字鸿沟风险:生成模型能提高知识传播效率,但高成本和专业化可能导致数字鸿沟加剧。
这些风险提示我们,在利用AI生成新闻内容时,需要采取相应的风险管理和应对措施,以确保新闻内容的安全性、合规性和伦理性。