技术天地

0

人工智能大模型发展,如何安全、规范、可持续?--强国新闻--人民网

头像
张迅

以下是按照段落格式,转换为HTML格式代码段(不含body)的结果: ```html

方经纶

 

近日,由人民网主办的“智融未来——2023人工智能成果展示会”在武汉精彩演绎。展示会上,来自传播内容认知全国重点实验室的相关负责人介绍了生成式人工智能合规性评估体系和语料库的建设情况。

 

目前,主流价值语料库的建设已取得阶段性进展,已完成3000多万篇基础语料、5万多道问答语料的建设工作。相关成果助推了国产人工智能大模型的安全、规范和可持续发展,为生成式人工智能领域提供了更多的规范和参考。

 

为何建设这样一个主流价值语料库?人民日报社传播内容认知全国重点实验室首席科学家张勇东在接受人民网采访时表示,媒体的重要职责之一是保证意识形态的安全。当前,人工智能大模型已成为生成式信息传播工具,因此大模型价值观的训练是必要的。

“训练人工智能大模型的过程就像培养一个小孩,你从小怎样培养他,在什么环境下去培养他,他将来就成为什么样的人。”主流媒体建立符合中国人自己价值观的语料库,就是对其“成长环境”的一种塑造。

 

当前,生成式人工智能技术(AIGC)发展迅猛,应用于文字、视频、音频等多领域。媒体行业如何利用AIGC技术提高生产力,同时防范假新闻和假消息的传播?

 

张勇东认为,保证新闻真实性一直是媒体的重要职责。人工智能技术生成的内容伪装性和欺骗性都很强,可能导致更多虚假内容产生。因此,要用AI对抗AI,通过防御性人工智能技术判断信息是否由AI生成,并向用户发出预警。随着主流价值语料库的扩大,可通过AI技术对比存疑信息与语料库数据,帮助用户判断信息真实性。

 

据了解,传播内容认知全国重点实验室联合中国科学技术大学、合肥综合性国家科学中心人工智能研究院推出的AI生成内容检测工具——AIGCX,可快速区分机器生成文本与人工生成文本,对中文文本检测的准确率已超过90%。

 

(责编:方经纶、贺迎春)

```
头像
丢弃

你的回复

如果只是评论问题或者答案,请使用评论工具。 您可以随时 修改您的答案 - 不需要重复回复相同的问题。 另外, 请别忘了去评价 - 这可以帮助选择最优的问题和答案!