【环球时报综合报道】俄罗斯政府持续推进AI领域系统性监管,为模型的创建和使用制定新的分类和要求。关键新规包括“主权”和“国家”人工智能模型概念、强制性认证及关键基础设施保护措施。
据专家透露,《俄罗斯联邦人工智能法》草案已制定初步版本。草案将AI模型分为两类。“主权人工智能模型”是指从设计、训练到运行的所有开发阶段,均完全由俄罗斯公司和个人在俄罗内完成的系统。同时,模型训练必须仅用俄罗斯数据集,不得使用外国软件和组件。“国家人工智能模型”则可以包含外国开源解决方案,并在训练时既用俄罗斯数据集,又用外国数据集。草案还建议所有智能手机和平板电脑预装可访问此类模型的程序,使其成为国产模型大规模普及的工具。
草案特别关注所谓“可信人工智能模型”,即关键信息基础设施AI系统。获得可信模型认证,须确认其符合联邦技术与出口监督局和联邦安全局制定的安全要求。可信标准将由政府制定,为AI在政府和战略重要领域中的应用制定统一标准。草案还规定了人工智能安全使用原则,内容包括:必须告知用户其正与AI系统(如聊天机器人)互动;规范模型运行结果责任归属;标记合成内容;对AI参与创作的知识产权对象提供法律保护。此外,草案还详细规定了AI辅助创作成果著作权和所有权问题。
该法律草案拟于2027年9月1日生效。但专家表示,成功落实这些规定,必须制定清晰的模型认证方法和安全使用方法,以免给企业和国家带来额外风险。目前,该草案正在征询相关专业部门意见。数字发展、通信和大众传媒部表示,文件最终版本尚未获批,个别规定具体落实机制将稍后讨论。
实际上,俄罗斯市场上几乎没有完全不用开源组件开发的“主权模型”。即使最大型科技公司,也会在开发自己的系统时使用外国开源库和工具。唯一例外是俄罗斯储蓄银行已在开发完全独立的模型。MWS AI公司新闻处表示,从零开始开发一个外国同类水平模型,需数千亿卢布投资,且无法保证同等质量。专家警告说,市场有限情况下,这些成本几乎肯定会转嫁给最终消费者,本土公司则面临技术水平落后的风险。此外,此举还可能会导致企业使用AI成本上升,加剧人才外流,减缓创新落地速度。有分析人士认为,后者(国家类)才是制胜之道——不依赖巨额投资,而是通过完善应用和创新落地获胜。
专家认为,该法律草案成功实施,需在安全性、国家技术自主性和技术应用的经济合理性之间取得平衡。政府认为,将模型分为主权类和国家类,有助于提高俄罗斯IT行业独立性,降低数据泄露风险,确保对关键技术的控制。
同时,业内人士警告说,必须采取灵活方法,以免过度脱离全球技术,造成竞争力降低,减缓创新在实际业务中的应用。这项政策要取得成功,必须将法律监管、政府支持及与正在国内开发AI模型的公司进行有效互动结合起来。
综上所述,俄罗斯立法机构正构建一套综合性AI监管方法。落实和推行这些措施,不仅有助于国家控制战略技术,还能刺激本国IT生态系统发展。专家认为,该法律草案通过和正确实施,将成为加强俄罗斯技术主权的重要一步,但关键挑战仍在于如何在独立性和融入全球技术标准之间取得平衡。本文刊载自《环球时报》“透视俄罗斯”专刊,内容由《俄罗斯报》提供。
本文刊载自《环球时报》“透视俄罗斯”专刊,内容由《俄罗斯报》提供。
暂无评论,快来抢沙发吧!首评可提升互动曝光。