关于《科学、技术与创新法(草案)》的若干建议

Vietnam English Chinese
关于《科学、技术与创新法(草案)》的若干建议

浏览量: 56

Author Image
作者: Le Quang Lam
Lawyer Partner at ALTAS Law
支持: Hoàng Trần
关于《科学、技术与创新法(草案)》的若干建议

 

 

TT
条款
内容
企业/组织意见与建议
1
第1条 – 第2款
“本法规定人工智能系统的研究、开发、提供、部署与使用活动;相关组织和个人的权利与义务;国家对人工智能系统的管理。”
拟议草案的调整范围侧重于人工智能系统的整个生命周期,同时涵盖伦理、责任和损害赔偿内容。这种规定体现了全面覆盖核心问题的努力,但可能导致法律文本范围过宽,从而出现“全面调整”的情况,尤其是在人工智能领域快速变化、需要法律灵活更新的情况下。
国际立法实践,包括欧盟和韩国等前沿框架,都谨慎将损害赔偿责任的详细规定纳入正式法律,因为这是复杂问题,需要长期司法实践总结。建议考虑结构如下:
(i) 在框架法层面确立原则、方向与调整范围;
(ii) 由政府及专业机构发布详细文件,先行试点、评估影响后完善。
同时,应明确区分研究—试验—商业部署活动,避免对学术研究、受限环境试验或个人应用过早施加法律规定;以鼓励创新、保持开放研究环境并避免阻碍科学发展。
2
第1条 – 第3款
“本法不适用于专为国防、安全、情报目的开发、部署和使用的人工智能系统。”
排除国防、安全目的人工智能系统的规定符合国家管理实践和国际惯例。但为确保执行透明、一致并避免法律空白,建议明确例外范围:仅免除纯粹服务于国防—安全功能或任务的系统;具有民用潜力的组件、功能、数据或应用仍需遵守本法。
按功能而非全面免除的方法确保主体不能以国防—安全名义规避披露、注册、风险评估或遵守伦理—技术标准的义务。
此方法也符合风险治理原则、法治和人权保护,同时与欧盟、新加坡和韩国的法律模型一致,避免法律灰色区或管理权冲突。
建议增加两项措施:
(i) 对获免除系统进行定期审查,确保例外适用于国防—安全目标;
(ii) 在双用途系统情形下,设立跨部协调机制(公安部、国防部、科技部)以明确管理责任、避免滥用。
明确免除范围可兼顾国家安全与民用人工智能治理透明、公平和一致,为企业、研究组织及监管机构创造明确环境。
3
第3条 – 第5、6款
“5. 供应方是指开发人工智能系统或通用人工智能模型并以自身名称或品牌推向市场或投入使用的组织、个人。
6. 部署方是指在自身权限范围内使用人工智能系统的组织、个人,但个人非商业用途除外。”
草案已初步区分人工智能系统生命周期的主体,但定义仍有交叉,尤其是“供应方”与“开发方”概念。供应方覆盖开发方可能导致多层供应模型(如基础模型开发单位、集成模型企业、最终用户部署单位)责任划分困难,引发责任争议,降低法律执行效率。
建议明确界定各主体角色,根据各阶段开发—集成—部署—运营中对模型/系统的控制和技术干预程度建立责任机制。同时,补充在服务模式下的角色识别标准,以避免责任遗漏。
此外,建议扩展“用户”和“受影响方”定义,涵盖组织与法人,不仅限于个人。实践表明,企业、金融机构、信贷机构及服务提供单位可能因自动化决策受到负面影响,如信用评估、风险分类、欺诈控制、招聘筛选,造成信誉损失、经济损害或业务中断。
此方法符合欧盟、新加坡、韩国国际惯例,确保定义体系完整、一致,为责任分配提供法律依据,提高透明度并保护权利主体。
4
第4条 – 基本原则
越南境内所有人工智能系统活动必须遵守以下基本原则:
1. 以人为本(人文):人工智能系统应服务于人、尊重人类尊严、自由、隐私及文化价值,不得替代关键决策,必须受人类控制、监督并承担最终责任。
2. 确保安全、公平、透明与责任:人工智能系统须安全、可靠、保密,确保公平、无歧视。高风险系统应确保透明、可追责,并明确法律责任。
3. 确保国家自主与国际融合:发展技术、基础设施、数据及人工智能模型自主能力,并主动开展国际合作与融合,符合国际原则和惯例。
4. 包容与可持续发展:人工智能发展应与经济—社会可持续发展目标挂钩,保障公平、机会均等、环境保护及文化传承。
5. 政策平衡与协调:
a) 国家负责协调人工智能法律与国际标准,并符合越南价值观、文化特性与发展需求;
b) 政策兼顾国际合作获取技术与国家自主能力建设;
c) 支持大型企业投资战略项目,同时鼓励、保护初创及中小企业发展;
d) 平衡平台模型与专业模型发展;
e) 确保组织、个人研究创新自由,并建立有效风险管理机制保护公共利益。
6. 风险管理:国家根据人工智能系统风险级别采取相应管理措施,仅对明确危害系统进行强制管理,其余活动优先采用激励创新与自愿标准机制。
7. 推动创新:国家提供安全、便利的法律与政策环境,促进人工智能相关研发、创业及商业化。
草案原则充分体现负责任人工智能治理的核心价值,但部分原则与人工智能伦理章节内容重复,可能导致执行指导缺乏连贯性。建议两层结构:
(i) 宏观价值层:以人为本、法治、保护人权、国际融合、技术中立;
(ii) 具体伦理与技术原则层:由国家伦理标准文件规定。
此外,“以人为本”原则需明确尊重尊严、保护人权及越南文化—伦理价值,避免概括表述。
分层原则可确保法律结构科学、避免重复、提高实施透明度,并符合国际惯例,增强越南人工智能法律体系的统一性、稳定性与灵活性。
5
第5条 – 国家责任
国家承担以下责任:
1. 尊重、保护组织、个人创造力,构建明确、安全、可靠法律环境。
2. 发布并实施政策、计划普及人工智能知识、数字技能培训,支持公众公平受益,尤其是弱势群体。
3. 优先将人工智能服务、计算服务及云平台用于公共任务;仅在必要时出于效率与国家安全投资基础设施。
4. 主动投资、引导国家人工智能基础设施、基础模型及战略核心技术发展。
5. 积极参与国际合作,推动联合研究、相互承认人工智能标准与认证。
6. 鼓励外资投资人工智能,同时确保遵守越南法律,平衡国家主权利益与技术转让、竞争及国际合作。
政策体现风险治理与创新平衡,但需整合强制法律工具、自愿指导、伦理标准与技术标准。
建议补充:
(i) 人工智能社会影响应对政策,包括再培训、就业支持、公平保障;
(ii) 基础研究能力、国家计算基础设施与高质量人才培养政策;
(iii) 定期法律影响评估机制以灵活调整。
补充这些政策将形成全面法律环境,推动人工智能生态可持续发展,保障国家竞争力,符合国际经验(欧盟、新加坡、韩国)。
6
第10条 – 禁止人工智能系统的情形
禁止研究、开发、提供、部署和使用以下人工智能系统:
1. 有意操纵人类认知、行为,使其失去自主决策能力,造成或可能造成身心伤害。
2. 利用特定群体(年龄、残疾、经济社会状况)弱点影响其行为。
3. 国家机关在无关社会场景下对个人进行广泛社会信用评分,导致不公待遇。
4. 在公共场所实时远程生物识别用于执法,法律另有规定或经特殊程序授权除外。
5. 通过互联网或监控摄像头无目的收集大量面部识别数据。
6. 在工作场所或教育机构使用情绪识别系统,法律另有医疗或安全允许除外。
7. 制作或传播可能严重危害社会秩序、安全、国家安全的虚假内容及其他AI生成内容。
8. 开发或使用人工智能系统破坏越南社会主义共和国国家。
9. 政府经相关机构意见及公开咨询后规定的其他情形。
条款保护隐私、数据安全与人权,符合国际立法趋势。但为避免阻碍国家及企业在经济—金融安全、打击高科技犯罪中的重要活动,建议增加条件允许机制,针对高风险领域应用(如高科技反欺诈、反洗钱、反恐融资、网络安全、关键基础设施及金融安全)进行控制性部署。
机制建议:
- 部署前影响评估,关注人权与隐私;
- 行业监管机构审批(如公安部、国家银行);
- 高标准数据安全与信息安全措施,包括加密、访问控制及操作追踪;
- 强制报告与定期监管,并承担滥用或错用责任;
- 独立监督或技术审计,确保系统按目标运行,仅收集必要数据、不侵犯个人权利。
此方法在保护隐私与维护国家安全、金融安全、公共秩序之间取得平衡,同时符合国际负责任人工智能治理原则,且不阻碍创新。
7
第14条 – 高风险人工智能系统义务
高风险人工智能系统供应方与部署方应履行以下义务:
1. 建立、维护、运行风险管理系统贯穿生命周期。
2. 数据治理措施,确保训练、测试及运营数据来源、质量及代表性;限制并减少偏差。
3. 根据本法附录或政府规定保存完整技术档案与自动运行日志。档案最少包括:功能描述、范围与用途;算法设计与架构;训练与测试数据来源;测试与性能评估结果;风险评估报告及缓解方案;人工监督机制;安全政策;运行与事件日志。
4. 建立人类监督、干预与控制机制,确保在法律要求下人类最终决策权。
5. 确保精度、安全与网络安全符合公示用途。
6. 对受影响方履行透明义务,包括系统性质、决策机制及人类复审权利。
7. 部署前在国家人工智能数据库注册。
8. 上市后建立监督机制,收集反馈、更新系统以减轻新风险。
9. 按本法第45条进行人工智能影响评估。
10. 通过主管部门电子报告系统报告重大事件,并配合调查处理。
11. 对基于通用模型开发的高风险系统,供应方可使用通用模型提供方的技术档案、评估文件与测试报告,条件是:
a) 验证档案、报告准确性、完整性与有效性;
b) 补充调整以适应具体部署;
c) 对市场投入系统安全、合法性及影响承担最终责任。
为确保人工智能系统安全、负责任运行并匹配风险级别,建议根据风险分层设立人类干预机制:
(i) 对低至中风险应用进行事后决策监督;
(ii) 对高影响权利与利益系统进行实时预警与干预;
(iii) 对敏感领域如医疗、生命安全、执法、司法、关键行政决策等强制人工审批。
此外,建议建立标准化干预流程,包括明确监督责任人、操作指导、风险处理及定期培训,并保留干预日志与决策记录,确保透明、可追踪与责任追究。
分层监督结合技术—组织—法律流程可兼顾人权保护、社会安全及管理与企业运行能力,提供灵活、可行的法律环境,不阻碍创新与应用。
8
第18条 – 通用人工智能模型义务
1. 通用模型供应方(包括大语言模型与小语言模型)在市场投放或使用前应履行:
a) 建立并保存技术文件,包括训练、测试流程、评估结果与模型使用限制;
b) 安全测试以识别并降低可预见风险;
c) 内部政策遵守知识产权法律。合法获取内容用于训练非视为侵权,除非《知识产权法》另有规定;需采取技术措施保障安全并防止数据再利用;尊重作品所有者拒绝训练数据使用权。科技部牵头协调相关部门发布机器可读信号技术标准或指南。
d) 提供信息与使用指南给下游部署或使用方;
e) 建立重大事件报告机制;
f) 履行透明与标注义务。
2. 对被认定为系统风险的通用模型,应执行加强义务:
a) 按标准化流程与工具评估模型,包括对抗性测试;
b) 持续评估与降低潜在系统风险;
c) 及时记录并向监管部门报告重大事件及处理措施,同时告知受影响组织或个人;
d) 确保模型及物理基础设施网络安全;
e) 持续更新、调整模型以降低新风险。
3. 档案、报告与文件供后续系统供应方使用,但不免除其验证与最终责任。
为平衡知识产权与人工智能模型发展需求,建议明确规定权利人拒绝模型训练使用数据的权利。
应结合国际标准化技术信号(参照欧盟AI法案)以确保自动化、透明、低合规成本并便于广泛部署。
同时,应建立训练数据追踪与透明机制,确保数据来源合法性与可验证性,包括:
(i) 建立并维护数据与训练日志;
(ii) 适度公开数据来源信息(商业秘密除外);
(iii) 监管机构可访问检查违规迹象。
还建议建立权利人与模型供应方的快速争议解决机制,如简化程序、在线调解或技术专门仲裁,以避免纠纷拖延并提供法律确定性。完善机制可同时保护权利人利益并维持研究创新环境,支持通用模型与人工智能生态发展。
9
第21条 – 注册、国家人工智能数据库及信息公开
1. 主管机关建立并管理国家人工智能系统数据库,用于管理、监督与信息提供。
2. 高风险人工智能系统必须在投入使用前注册,并在重要变更时更新,注册和更新在电子环境中完成,与国家公共服务门户及相关专业数据库互通。
3. 外国人工智能产品/服务提供方向越南用户提供且受本法管理,必须在越南指定法定代表人,负责通知、注册、检测及违规处理。
4. 高风险人工智能系统基本信息公开,平衡透明性与国家秘密、商业秘密及个人数据保护。政府规定信息公开范围、程度与形式。
为确保可行性、符合国际惯例及避免技术获取障碍,建议依据明确定量标准设定外资系统供应商注册与指定代表阈值,而非一刀切。
标准可包括:
(i) 越南用户数量超过阈值(如12个月内≥10万人);
(ii) 在越南收入、交易额或运营规模超过阈值(如≥5亿越南盾/年);
(iii) 系统属于高风险类别。
此方法确保仅对实际影响显著主体适用,避免给中小企业、初创、研究组织及开源平台增加不必要负担。
此外,可增加电子代表选项,允许外国企业授权越南法人或获许可服务平台执行通知、违规处理、投诉接收及监管合作。该灵活方式兼顾执行有效性,不增加过高合规成本,不限制本地组织与个人获取先进技术。
还可针对科研、教育、创新或非盈利开源系统设立简化注册或免除机制,并要求承诺不用于商业或高风险数据处理。此灵活措施有助平衡管理目标、用户保护与创新,并促进本地企业快速获取全球先进人工智能技术,提高国家数字技术竞争力。

内容审核

LE QUANG LAM

Lawyer Partner

Zalo
Hotline