1. 训练数据安全要求
(1)数据来源安全:
-
采集来源管理:
-
采集数据前应进行安全评估,含违法不良信息超过5%的数据源不得使用。
-
采集后需核验,含违法不良信息超过5%的数据不得用于训练。
-
-
不同来源训练数据搭配:
-
提高数据来源多样性,确保每种语言和类型的数据均有多个来源。
-
境外数据应与境内数据合理搭配。
-
-
训练数据来源可追溯:
-
使用开源数据时需有开源许可或授权文件。
-
自采数据需有采集记录,不得采集明确禁止的数据。
-
商业数据需有合法的交易合同和质量承诺。
-
使用者输入信息作为训练数据时需有授权记录。
-
(2)数据内容安全:
-
训练数据需经过过滤,去除违法不良信息。
-
对数据中的知识产权侵权风险进行识别和处理。
-
涉及个人信息的数据使用需获得同意或符合法律规定。
(3)数据标注安全:
-
标注人员需经过培训和考核,明确分工。
-
标注规则应覆盖数据标注和审核环节。
-
对功能性和安全性标注的数据进行抽检和审核,确保准确性。
2. 模型安全要求
(1)模型训练:
-
生成内容的安全性应作为评价指标之一。
-
定期审计开发框架和代码,修复安全漏洞。
(2)模型输出:
-
提高生成内容的准确性和可靠性,减少错误。
-
对明显偏激或违法的问题拒绝回答。
-
符合国家规定标识生成内容。
(3)模型监测:
-
持续监测模型输入,防范恶意攻击。
-
建立常态化监测和应急管理措施,优化模型。
(4)模型更新和升级:
-
制定安全管理策略,进行安全评估。
(5)软硬件环境:
-
评估计算系统的供应链安全。
-
训练环境与推理环境隔离,防止数据泄露。
3. 安全措施要求
(1)服务适用人群、场合和用途:
-
确保生成式人工智能服务在各领域应用的必要性和安全性。
-
重要场合和未成年人使用需有相应的安全保护措施。
(2)服务透明度:
-
公布服务适用信息、局限性和模型算法概要。
-
以编程接口提供服务时公开相关信息。
(3)个人信息收集与使用:
-
提供关闭信息收集的便捷方式,并告知用户。
-
建立投诉举报途径和处理机制。
(4)服务稳定和持续性:
-
建立备份机制和恢复策略,确保业务连续性。
4. 安全风险
文件附录详细列出了训练数据和生成内容的主要安全风险,包括违反社会主义核心价值观、歧视性内容、商业违法违规、侵犯他人合法权益以及无法满足特定服务类型的安全需求。
通过遵循上述基本要求,生成式人工智能服务提供者可以有效地提升服务的安全性和合规性,确保在各个环节中防范和化解潜在的安全风险。