央广网北京3月11日消息(记者 樊瑞)今年全国两会上,第十四届全国政协委员、社会和法制委员会委员、知乎创始人兼CEO周源关注人工智能大模型的互联网内容社区,他提出要构建促进数据有序流通机制。
周源指出,当前数据建设多集中于政务数据和公共数据集,而互联网空间中长期沉淀的高质量专业内容尚未得到应有重视。现实中,科技、医疗、法律、财经等领域的专业内容社区,汇聚了大量由专家、从业者持续生产的知识型内容,具有专业性强、语义丰富、实践密集等特点,是大模型理解复杂问题、支撑高质量决策的关键数据来源。
全国政协委员、知乎创始人兼CEO周源(受访者供图 央广网发)
“若不能尽快建立互联网专业内容的有序流通与合规使用机制,不仅影响原创者权益,也将制约我国AI产业的长期竞争力。”周源认为,亟需从战略层面推动这一关键环节的突破。
他认为,应当支持互联网内容社区通过标准API接口向大模型开放数据服务。当前,部分AI企业通过爬虫无授权抓取网络内容,版权争议频发,数据来源合法性存疑,平台方与原创者权益难以保障,模型企业亦面临诉讼与合规不确定性的风险,客观上推高行业隐性制度成本。周源认为,行业主管部门可将互联网内容社区的标准化API实时数据服务体系纳入政策支持范围,作为数据要素有序流通的关键部分。
同时,周源指出,可鼓励并支持相关企业开展高质量专家数据标注业务。随着大模型竞争进入深水区,数据“质量”已远重于“规模”,应支持内容社区发挥人才聚集优势,提供专家级标注与内容评估服务;开展“专家数据资产化”试点,在研发投入、人才补贴等方面给予政策倾斜。
此外,还可支持互联网内容平台参与建设重点领域专业语料库开源开放平台。国际开源平台通过构建“模型—数据—评测”协同生态和成熟的开源许可体系,聚合全球开发者资源,已成为人工智能产业的重要数据基础设施。周源认为,可在行业主管部门指导下,支持互联网内容社区联合行业协会与科研机构,共建面向重点领域的专业语料开源开放平台,形成“社区生产—平台治理—模型反馈—持续优化”的良性循环,推动互联网内容社区沉淀的专业知识资源转化为合规、稳定、可持续的大模型训练数据来源,夯实我国人工智能产业发展的数据基础。

微信扫一扫打赏
支付宝扫一扫打赏
