Một Số Góp Ý Đối Với Dự Thảo Luật Khoa Học, Công Nghệ Và Đổi Mới Sáng Tạo

Vietnam English Chinese
Một Số Góp Ý Đối Với Dự Thảo Luật Khoa Học, Công Nghệ Và Đổi Mới Sáng Tạo

Lượt xem: 54

Author Image
Viết bởi: Lê Quang Lâm
Luật Sư Thành Viên
Hỗ trợ: Hoàng Trần
Một Số Góp Ý Đối Với Dự Thảo  Luật Khoa Học, Công Nghệ Và Đổi Mới Sáng Tạo

 

 

TT
Điều khoản
Nội dung
Ý kiến/Đề xuất của doanh nghiệp/tổ chức
Ý kiến khác (nếu có)
  1.  
Điều 1 – Khoản 2
“Luật này quy định về các hoạt động nghiên cứu, phát triển, cung cấp, triển khai và sử dụng hệ thống trí tuệ nhân tạo; quyền và nghĩa vụ của tổ chức, cá nhân có liên quan; quản lý nhà nước đối với hệ thống trí tuệ nhân tạo.”
Phạm vi điều chỉnh theo dự thảo hiện đang đặt trọng tâm vào toàn bộ vòng đời của hệ thống trí tuệ nhân tạo, đồng thời tích hợp cả các nội dung về đạo đức, trách nhiệm và bồi thường thiệt hại. Cách quy định này thể hiện nỗ lực bao quát đầy đủ các vấn đề trọng yếu, song có nguy cơ tạo nên một văn bản luật với phạm vi quá rộng, dẫn đến tình trạng “điều chỉnh toàn bộ”, nhất là khi lĩnh vực trí tuệ nhân tạo thay đổi liên tục và đòi hỏi pháp luật phải có khả năng cập nhật linh hoạt.
Trên thực tế lập pháp quốc tế, kể cả các khung pháp luật đi trước như Liên minh châu Âu hay Hàn Quốc, đều thận trọng trong việc đưa quy định chi tiết về trách nhiệm bồi thường thiệt hại vào văn bản luật chính thức, bởi đây là vấn đề phức tạp, cần tổng kết thực tiễn xét xử dài hạn. Đề xuất xem xét cấu trúc theo hướng:
  1. xác lập các nguyên tắc, định hướng và phạm vi điều chỉnh ở mức luật khung;
  2. giao Chính phủ và cơ quan chuyên môn ban hành văn bản chi tiết, thử nghiệm trước, đánh giá tác động rồi hoàn thiện.
Đồng thời, cần phân biệt rõ giữa hoạt động nghiên cứu – thử nghiệm – triển khai thương mại; tránh áp dụng quy định pháp lý quá sớm đối với nghiên cứu học thuật, thử nghiệm trong môi trường hạn chế, hoặc ứng dụng cá nhân không có tác động xã hội; nhằm khuyến khích đổi mới sáng tạo, duy trì môi trường nghiên cứu mở và tránh cản trở khoa học.
 
  1.  
Điều 1 – Khoản 3
“Luật này không áp dụng đối với các hệ thống trí tuệ nhân tạo được phát triển, triển khai, sử dụng riêng cho mục đích quốc phòng, an ninh, tình báo.”
Việc quy định loại trừ các hệ thống trí tuệ nhân tạo phục vụ mục đích quốc phòng, an ninh là phù hợp với thực tiễn quản lý nhà nước và thông lệ quốc tế. Tuy nhiên, để bảo đảm tính minh bạch, thống nhất trong thực thi và tránh hình thành khoảng trống pháp lý, đề xuất làm rõ phạm vi ngoại lệ theo hướng: chỉ miễn trừ đối với các chức năng hoặc nhiệm vụ thuần túy phục vụ hoạt động quốc phòng – an ninh theo quy định của pháp luật chuyên ngành; các thành phần, tính năng, dữ liệu hoặc ứng dụng có khả năng sử dụng cho mục đích dân sự vẫn phải tuân thủ các quy định của Luật này.
Cách tiếp cận phân định theo chức năng thay vì miễn trừ toàn diện giúp bảo đảm rằng các chủ thể không lợi dụng danh nghĩa quốc phòng – an ninh để né tránh nghĩa vụ công bố, đăng ký, đánh giá rủi ro hoặc tuân thủ tiêu chuẩn đạo đức – kỹ thuật khi triển khai trong môi trường dân sự.
Đây cũng là phương án phù hợp với nguyên tắc quản trị rủi ro, thượng tôn pháp luật và bảo vệ quyền con người, đồng thời thống nhất với mô hình pháp lý đang được áp dụng tại Liên minh châu Âu, Singapore và Hàn Quốc, qua đó tránh tạo “vùng xám” pháp lý hoặc xung đột thẩm quyền quản lý.
Đề xuất bổ sung thêm hai yếu tố:
  1. cơ chế rà soát định kỳ đối với các hệ thống được miễn trừ nhằm bảo đảm rằng việc áp dụng ngoại lệ vẫn phù hợp mục tiêu quốc phòng – an ninh; và
  2. quy trình phối hợp liên bộ (giữa Bộ Công an, Bộ Quốc phòng và Bộ Khoa học & Công nghệ) trong trường hợp hệ thống TTNT có ứng dụng kép, nhằm bảo đảm sự phân định rõ ràng về trách nhiệm quản lý và ngăn ngừa rủi ro sử dụng trái mục đích.
Việc làm rõ phạm vi miễn trừ theo hướng nêu trên vừa bảo đảm mục tiêu bảo mật quốc phòng – an ninh quốc gia, vừa giữ được sự rõ ràng, minh bạch của khung quản trị TTNT trong khu vực dân sự, tạo môi trường minh bạch, công bằng và nhất quán cho doanh nghiệp, tổ chức nghiên cứu và cơ quan quản lý.
 
  1.  
Điều 3 – Khoản 5, 6
“5.       Nhà cung cấp là tổ chức, cá nhân phát triển một hệ thống trí tuệ nhân tạo hoặc một mô hình trí tuệ nhân tạo đa dụng và đưa ra thị trường hoặc đưa vào sử dụng dưới tên hoặc thương hiệu của riêng mình.
6.         Bên triển khai là tổ chức, cá nhân sử dụng một hệ thống trí tuệ nhân tạo trong phạm vi thẩm quyền của mình, trừ trường hợp hệ thống trí tuệ nhân tạo được sử dụng trong hoạt động cá nhân không vì mục đích thương mại.”
Hiện dự thảo đã có bước tiến khi bước đầu phân định các nhóm chủ thể tham gia vào vòng đời của hệ thống trí tuệ nhân tạo. Tuy nhiên, các định nghĩa vẫn còn giao thoa, đặc biệt giữa khái niệm “nhà cung cấp” và “nhà phát triển”. Việc “nhà cung cấp” bao trùm luôn “nhà phát triển” có thể dẫn đến khó khăn trong xác định trách nhiệm pháp lý trong mô hình cung ứng nhiều tầng – phổ biến trong thực tiễn triển khai TTNT (ví dụ: đơn vị xây dựng mô hình nền tảng; doanh nghiệp tích hợp mô hình vào sản phẩm, dịch vụ; cá nhân/tổ chức triển khai cho người dùng cuối). Điều này tiềm ẩn nguy cơ tranh chấp trách nhiệm và làm giảm hiệu quả thực thi của pháp luật.
Đề xuất làm rõ và phân định ranh giới vai trò giữa các chủ thể, theo hướng quy định cơ chế xác lập trách nhiệm dựa trên mức độ kiểm soát và khả năng can thiệp kỹ thuật đối với mô hình/hệ thống trong từng giai đoạn phát triển – tích hợp – triển khai – vận hành. Đồng thời, đề xuất bổ sung tiêu chí nhận diện vai trò trong trường hợp hệ thống được vận hành hoặc cung cấp dưới dạng dịch vụ, nhằm tránh bỏ sót trách nhiệm trong mô hình kinh doanh phổ biến của các nền tảng TTNT hiện nay.
Ngoài ra, kiến nghị mở rộng phạm vi định nghĩa “người sử dụng” và “người bị ảnh hưởng” để bao gồm cả tổ chức và pháp nhân, không chỉ cá nhân. Thực tiễn cho thấy doanh nghiệp, tổ chức tài chính, tổ chức tín dụng và đơn vị cung cấp dịch vụ có thể chịu ảnh hưởng tiêu cực đáng kể từ hệ thống TTNT thông qua các quyết định tự động (ví dụ: đánh giá tín dụng, phân loại rủi ro, kiểm soát gian lận, sàng lọc hồ sơ tuyển dụng), gây tổn hại uy tín, thiệt hại kinh tế hoặc gián đoạn hoạt động.
Cách tiếp cận này phù hợp với thông lệ quốc tế tại EU, Singapore, Hàn Quốc, bảo đảm tính đầy đủ và nhất quán của khung định nghĩa, đồng thời tạo cơ sở pháp lý rõ ràng cho việc phân bổ trách nhiệm, tăng cường minh bạch và bảo vệ các chủ thể quyền trong hệ sinh thái TTNT.
 
  1.  
Điều 4. Các Nguyên tắc cơ bản
Mọi hoạt động liên quan đến hệ thống trí tuệ nhân tạo tại Việt Nam phải tuân thủ các nguyên tắc cơ bản sau đây:
  1. Lấy con người làm trung tâm (Nhân văn): Hệ thống Trí tuệ nhân tạo phải phục vụ và hỗ trợ con người, tôn trọng nhân phẩm, quyền tự do, quyền riêng tư và các giá trị văn hóa. Trí tuệ nhân tạo không thay thế con người trong các quyết định trọng yếu và phải luôn nằm dưới sự kiểm soát, giám sát và chịu trách nhiệm cuối cùng của con người.
  2. Bảo đảm An toàn, công bằng, minh bạch và trách nhiệm: Hệ thống trí tuệ nhân tạo phải được phát triển và vận hành một cách an toàn, tin cậy, bảo mật và bảo đảm công bằng, không phân biệt đối xử. Đối với các hệ thống trí tuệ nhân tạo có rủi ro, phải đảm bảo tính minh bạch, có khả năng giải trình và phải xác định rõ trách nhiệm pháp lý đối với các thiệt hại gây ra.
  3. Bảo đảm Tự chủ quốc gia và hội nhập quốc tế: Phát triển năng lực tự chủ về công nghệ, hạ tầng, dữ liệu và các mô hình trí tuệ nhân tạo; đồng thời chủ động hợp tác, hội nhập quốc tế trên cơ sở hài hoà vời các nguyên tắc và thông lệ quốc tế.
  4. Phát triển Bao trùm và Bền vững: Gắn phát triển trí tuệ nhân tạo với mục tiêu phát triển kinh tế - xã hội bền vững, bảo đảm công bằng, và cơ hội thụ hưởng cho mọi người dân, không ai bị bỏ lại phía sau, bảo vệ môi trường và giữ gìn bản sắc văn hoá dân tộc.
  5. Bảo đảm sự cân bằng và hài hòa trong xây dựng và thực thi chính sách:
  1. Nhà nước có trách nhiệm hài hòa hóa các quy định pháp luật về hệ thống trí tuệ nhân tạo với các chuẩn mực quốc tế, đồng thời bảo đảm phù hợp với các giá trị, bản sắc văn hóa và yêu cầu phát triển của Việt Nam;
  2.  Chính sách của Nhà nước phải kết hợp giữa việc thúc đẩy hợp tác quốc tế để tiếp thu công nghệ và việc xây dựng năng lực tự chủ quốc gia về hạ tầng, dữ liệu và công nghệ lõi;
  3.  Chính sách của Nhà nước phải tạo điều kiện cho các doanh nghiệp lớn đầu tư vào các dự án chiến lược, đồng thời có cơ chế khuyến khích, bảo vệ sự phát triển của các doanh nghiệp khởi nghiệp, doanh nghiệp nhỏ và vừa;
  4.  Chính sách của Nhà nước phải cân đối giữa việc phát triển các mô hình nền tảng, đa dụng và việc khuyến khích các mô hình chuyên dụng, hiệu quả cho các bài toán cụ thể;
  5. Pháp luật phải bảo đảm quyền tự do nghiên cứu, sáng tạo của tổ chức, cá nhân, đồng thời thiết lập các cơ chế quản lý rủi ro hiệu quả để bảo vệ lợi ích công cộng.
  1. Quản lý dựa trên rủi ro: Nhà nước áp dụng biện pháp quản lý tương xứng với cấp độ rủi ro của hệ thống trí tuệ nhân tạo, chỉ . quy định quản lý bắt buộc đối với hệ thống trí tuệ nhân tạo có nguy cơ gây hại rõ ràng. Đối với các hoạt động còn lại, ưu tiên các cơ chế khuyến khích đổi mới sáng tạo và áp dụng tiêu chuẩn tự nguyện.
  2. Thúc đẩy đổi mới sáng tạo: Nhà nước kiến tạo môi trường pháp lý và chính sách thuận lợi, an toàn để thúc đẩy nghiên cứu, khởi nghiệp và thương mại hóa các sản phẩm, dịch vụ liên quan đến hệ thống trí tuệ nhân tạo.
Các nguyên tắc trong dự thảo đã thể hiện đầy đủ giá trị căn bản về quản trị trí tuệ nhân tạo có trách nhiệm. Tuy nhiên, nội hàm một số nguyên tắc chồng lặp với Chương về đạo đức trí tuệ nhân tạo, dễ dẫn đến thiếu mạch lạc khi ban hành văn bản hướng dẫn thực thi. Đề xuất tái cấu trúc theo mô hình hai tầng:
  1. tầng giá trị định hướng vĩ mô: lấy con người làm trung tâm, thượng tôn pháp luật, bảo vệ quyền con người, hội nhập quốc tế, trung lập công nghệ;
  2. tầng nguyên tắc đạo đức và kỹ thuật cụ thể ban hành ở văn bản quy chuẩn đạo đức quốc gia.
Ngoài ra, nguyên tắc “lấy con người làm trung tâm” cần bổ sung rõ nội dung tôn trọng phẩm giá, bảo vệ quyền con người và bảo vệ các giá trị văn hóa – đạo đức Việt Nam; tránh chỉ mô tả khái quát.
Việc phân tầng nguyên tắc theo hướng nêu trên sẽ giúp bảo đảm tính khoa học của cấu trúc luật, tránh chồng lặp nội dung, tăng tính minh bạch khi triển khai văn bản hướng dẫn và đồng thời phù hợp với thông lệ quốc tế, tạo sự thống nhất, ổn định và linh hoạt cho hệ thống pháp luật về trí tuệ nhân tạo tại Việt Nam.
 
  1.  
Điều 5. Trách nhiệm của Nhà nước
Nhà nước có các trách nhiệm sau đây :
1. Tôn trọng và bảo vệ sự sáng tạo của tổ chức, cá nhân; kiến tạo môi trường pháp lý rõ ràng, an toàn và đáng tin cậy.
2. Ban hành và triển khai chính sách, chương trình cụ thể để phổ cập kiến thức trí tuệ nhân tạo, đào tạo kỹ năng số, hỗ trợ người dân thích ứng và hưởng lợi công bằng, đặc biệt là các nhóm dễ bị tổn thương.
3. Ưu tiên hình thức sử dụng dịch vụ trí tuệ nhân tạo, dịch vụ tính toán và nền tảng đám mây cho nhiệm vụ công; chỉ đầu tư sở hữu hạ tầng khi thật sự cần thiết vì lý do hiệu quả và an ninh quốc gia.
4. Chủ động đầu tư, dẫn dắt việc phát triển và làm chủ Hạ tầng trí tuệ nhân tạo Quốc gia, các mô hình Trí tuệ nhân tạo nền tảng và công nghệ lõi chiến lược.
5. Chủ động tham gia, hợp tác quốc tế trong lĩnh vực trí tuệ nhân tạo; thúc đẩy nghiên cứu chung, công nhận lẫn nhau về tiêu chuẩn và chứng nhận trí tuệ nhân tạo.
6. Khuyến khích và tạo điều kiện thuận lợi thu hút đầu tư nước ngoài trong lĩnh vực trí tuệ nhân tạo, đồng thời bảo đảm tuân thủ pháp luật Việt Nam và cân bằng giữa yêu cầu bảo đảm chủ quyền, lợi ích quốc gia với việc thúc đẩy chuyển giao công nghệ, cạnh tranh và hợp tác quốc tế.
Các chính sách hiện thể hiện định hướng cân bằng giữa quản trị rủi ro và đổi mới sáng tạo, tuy nhiên cần hoàn thiện theo hướng tích hợp cả công cụ pháp lý bắt buộc và hướng dẫn tự nguyện, quy chuẩn đạo đức, tiêu chuẩn kỹ thuật.
Đề xuất bổ sung:
  1. chính sách ứng phó tác động xã hội do trí tuệ nhân tạo gây ra, bao gồm đào tạo lại lao động, hỗ trợ việc làm mới, bảo đảm công bằng xã hội;
  2. chính sách bảo đảm năng lực nghiên cứu nền tảng, hạ tầng tính toán quốc gia, đào tạo nhân lực chất lượng cao;
  3. cơ chế đánh giá tác động pháp lý định kỳ để điều chỉnh linh hoạt.
Việc bổ sung các chính sách nêu trên sẽ góp phần hình thành môi trường pháp lý toàn diện, thúc đẩy phát triển hệ sinh thái TTNT bền vững, bảo đảm tính cạnh tranh quốc gia và phù hợp với kinh nghiệm quốc tế (EU, Singapore, Hàn Quốc) trong quản trị và phát triển trí tuệ nhân tạo.
 
  1.  
Điều 10. Các trường hợp hệ thống trí tuệ nhân tạo bị cấm
Nghiêm cấm việc nghiên cứu, phát triển, cung cấp, triển khai và sử dụng hệ thống trí tuệ nhân tạo trong các trường hợp sau đây :
1. Thao túng nhận thức, hành vi của con người một cách có chủ đích nhằm làm mất khả năng tự chủ, ra quyết định, dẫn đến hoặc có khả năng dẫn đến tổn hại về thể chất hoặc tinh thần.
2. Lợi dụng các điểm yếu của một nhóm người cụ thể liên quan đến tuổi tác, khuyết tật hoặc hoàn cảnh kinh tế, xã hội để tác động đến hành vi của họ.
3. Chấm điểm tín nhiệm xã hội đối với cá nhân trên phạm vi rộng bởi cơ quan nhà nước, dẫn đến sự đối xử bất lợi hoặc không công bằng trong các bối cảnh xã hội không liên quan.
4. Sử dụng hệ thống nhận dạng sinh trắc học từ xa theo thời gian thực tại các địa điểm công cộng cho mục đích thực thi pháp luật, trừ các trường hợp đặc biệt do luật chuyên ngành quy định nhằm phòng, chống tội phạm nghiêm trọng và phải được cơ quan nhà nước có thẩm quyền cho phép theo một trình tự đặc biệt.
5. Xây dựng hoặc khai thác cơ sở dữ liệu nhận dạng khuôn mặt quy mô lớn thông qua việc thu thập hình ảnh một cách tràn lan, không có chủ đích từ internet hoặc camera giám sát.
6. Sử dụng hệ thống nhận diện cảm xúc tại nơi làm việc và các cơ sở giáo dục, trừ trường hợp luật chuyên ngành cho phép vì lý do y tế hoặc an toàn với các điều kiện nghiêm ngặt.
7. Sản xuất hoặc phổ biến nội dung giả mạo và các nội dung khác do trí tuệ nhân tạo tạo ra có khả năng gây nguy hại nghiêm trọng đến trật tự, an toàn xã hội, an ninh quốc gia.
8. Phát triển hoặc sử dụng hệ thống trí tuệ nhân tạo nhằm chống phá Nhà nước Cộng hòa xã hội chủ nghĩa Việt Nam.
9. Các trường hợp khác do Chính phủ quy định sau khi có ý kiến của các cơ quan liên quan và thực hiện tham vấn công khai.
Các quy định nhằm bảo vệ quyền riêng tư, an toàn dữ liệu và quyền con người trong dự thảo là cần thiết và phù hợp với xu hướng lập pháp quốc tế. Tuy nhiên, để tránh gây cản trở đối với các hoạt động quan trọng của Nhà nước và doanh nghiệp trong bảo vệ an ninh kinh tế – tài chính và phòng, chống tội phạm công nghệ cao, kiến nghị bổ sung cơ chế cho phép triển khai có điều kiện đối với một số ứng dụng sử dụng công nghệ trí tuệ nhân tạo trong lĩnh vực rủi ro cao, đặc biệt là các hệ thống phục vụ phát hiện gian lận công nghệ cao, phòng chống rửa tiền và tài trợ khủng bố, giám sát an ninh mạng, bảo vệ hạ tầng trọng yếu, và bảo vệ an toàn tài chính – ngân hàng.
Theo đó, đề xuất xây dựng cơ chế ngoại lệ có kiểm soát theo hướng:
  • Đánh giá tác động trước khi triển khai, tập trung vào mức độ ảnh hưởng đến quyền con người và quyền riêng tư.
  • Phê duyệt của cơ quan quản lý chuyên ngành (ví dụ: Bộ Công an, Ngân hàng Nhà nước đối với lĩnh vực tài chính – ngân hàng).
  • Áp dụng các tiêu chuẩn bảo vệ dữ liệu và an ninh thông tin ở mức cao, bao gồm mã hóa, phân quyền truy cập, và lưu vết hoạt động hệ thống.
  • Cơ chế báo cáo bắt buộc và giám sát định kỳ, kèm trách nhiệm giải trình đối với hành vi lạm dụng hoặc triển khai sai mục đích.
  • Giám sát độc lập hoặc kiểm toán công nghệ, nhằm bảo đảm hệ thống vận hành đúng mục tiêu, hạn chế thu thập vượt mức, chỉ dùng dữ liệu cần thiết và không xâm phạm quyền cá nhân.
Cách tiếp cận này tạo sự cân bằng hợp lý giữa mục tiêu bảo vệ quyền riêng tư và yêu cầu duy trì an ninh quốc gia, an toàn tài chính, trật tự công cộng – tương thích với các nguyên tắc quản trị TTNT có trách nhiệm theo quốc tế, đồng thời bảo đảm không kìm hãm đổi mới sáng tạo, đặc biệt trong lĩnh vực công nghệ phòng chống gian lận và an ninh tài chính.
 
  1.  
Điều 14. Nghĩa vụ chung đối với hệ thống trí tuệ nhân tạo rủi ro cao
Nhà cung cấp và bên triển khai hệ thống trí tuệ nhân tạo rủi ro cao có các nghĩa vụ sau đây:
1. Thiết lập, duy trì và vận hành hệ thống quản lý rủi ro trong suốt vòng đời của hệ thống.
2. Thực hiện các biện pháp quản trị dữ liệu, bảo đảm nguồn gốc, chất lượng, tính đại diện của dữ liệu huấn luyện, kiểm thử và vận hành; hạn chế và giảm thiểu thiên lệch.
3. Lập và lưu giữ hồ sơ kỹ thuật đầy đủ theo các yêu cầu chi tiết được quy định tại Phụ lục của Luật này hoặc theo quy định của Chính phủ; duy trì nhật ký vận hành tự động. Hồ sơ kỹ thuật tối thiểu bao gồm: mô tả chức năng, phạm vi và mục đích sử dụng; thiết kế và kiến trúc thuật toán; nguồn gốc dữ liệu huấn luyện và kiểm thử; kết quả kiểm thử và đánh giá hiệu năng; báo cáo đánh giá rủi ro và phương án giảm thiểu; cơ chế giám sát của con người; chính sách bảo mật; nhật ký vận hành và sự cố.
4. Thiết lập cơ chế giám sát, can thiệp và kiểm soát của con người; bảo đảm quyền quyết định cuối cùng của con người trong các trường hợp do pháp luật chuyên ngành yêu cầu.
5. Bảo đảm mức độ chính xác, an toàn và an ninh mạng phù hợp với mục đích sử dụng đã được công bố.
6. Thực hiện nghĩa vụ minh bạch đối với người bị ảnh hưởng, bao gồm thông báo về bản chất của hệ thống, cơ chế ra quyết định và quyền yêu cầu xem xét lại bởi con người.
7. Đăng ký hệ thống tại Cơ sở dữ liệu quốc gia về trí tuệ nhân tạo trước khi đưa vào triển khai.
8. Thiết lập cơ chế giám sát sau khi đưa hệ thống ra thị trường, bao gồm việc theo dõi, thu thập phản hồi và cập nhật, điều chỉnh hệ thống nhằm giảm thiểu rủi ro mới phát sinh.
9. Thực hiện Đánh giá tác động trí tuệ nhân tạo theo quy định tại Điều 45 của Luật này.
10. Báo cáo các sự cố nghiêm trọng qua cổng báo cáo điện tử do cơ quan có thẩm quyền công bố và phối hợp điều tra, khắc phục. Chính phủ quy định chi tiết ngưỡng phân loại sự cố, thời hạn báo cáo ban đầu, thời hạn báo cáo chi tiết và biểu mẫu điện tử thống nhất.
11. Trường hợp hệ thống trí tuệ nhân tạo có rủi ro cao được phát triển dựa trên mô hình trí tuệ nhân tạo đa dụng, nhà cung cấp hệ thống có thể sử dụng hồ sơ kỹ thuật, tài liệu đánh giá, báo cáo kiểm thử và các thông tin khác do nhà cung cấp mô hình đa dụng đã xây dựng, với điều kiện phải:
a) Xác minh tính chính xác, đầy đủ và còn hiệu lực của các hồ sơ, tài liệu đó;
b) Bổ sung và điều chỉnh các hồ sơ, báo cáo để phù hợp với bối cảnh triển khai cụ thể;
c) Chịu trách nhiệm cuối cùng về sự an toàn, tính hợp pháp và tác động của hệ thống khi đưa vào thị trường.
Để bảo đảm hệ thống trí tuệ nhân tạo vận hành an toàn, có trách nhiệm và phù hợp với mức độ rủi ro của từng ứng dụng, đề xuất cơ quan soạn thảo quy định rõ cơ chế can thiệp của con người theo mô hình phân tầng rủi ro. Cụ thể, thay vì áp dụng cơ chế giám sát chung cho tất cả loại hình hệ thống TTNT, nên xác lập ba cấp độ can thiệp tương ứng mức độ rủi ro và tác động tiềm ẩn đối với xã hội, bao gồm:
  1. Giám sát sau quyết định đối với các ứng dụng có rủi ro thấp đến trung bình, nơi quyết định của hệ thống có thể được rà soát, kiểm tra lại và sửa chữa sau khi phát sinh, nhằmbảo đảm hiệu quả vận hành mà không tạo gánh nặng kiểm soát trước.
  2. Cảnh báo và can thiệp thời gian đối với các hệ thống có khả năng gây ảnh hưởng đáng kể đến quyền và lợi ích hợp pháp của tổ chức, cá nhân, trong đó con người cần có khả năng giám sát liên tục và tạm dừng hệ thống khi phát hiện bất thường.
  3. Phê duyệt thủ công bắt buộc đối với lĩnh vực nhạy cảm như chăm sóc sức khỏe, an toàn tính mạng, thực thi pháp luật, tư pháp, quyết định hành chính quan trọng hoặc các tình huống có thể ảnh hưởng trực tiếp đến quyền con người, công lý và trật tự xã hội. Trong các trường hợp này, quyết định cuối cùng phải do con người xem xét và phê duyệt trước khi thi hành.
  4. Bên cạnh cấu trúc phân tầng nêu trên, đề xuất bổ sung yêu cầu xây dựng quy trình can thiệp chuẩn hóa, bao gồm: (i) xác định rõ cá nhân hoặc bộ phận chịu trách nhiệm giám sát; (ii) thiết lập hướng dẫn vận hành và xử lý tình huống rủi ro; (iii) đào tạo định kỳ cho nhân sự giám sát; và (iv) duy trì nhật ký kiểm soát, quy trình ra quyết định và hoạt động can thiệp của con người. Điều này nhằm bảo đảm tính minh bạch, khả năng truy vết và cơ chế giải trình đầy đủ khi xảy ra sự cố hoặc tranh chấp.
Việc phân tầng nghĩa vụ giám sát con người theo rủi ro, kết hợp quy trình kỹ thuật – tổ chức – pháp lý, sẽ bảo đảm vừa đáp ứng yêu cầu bảo vệ quyền con người và an toàn xã hội, vừa phù hợp năng lực vận hành của cơ quan quản lý và doanh nghiệp, tạo môi trường pháp lý linh hoạt, khả thi, không cản trở đổi mới sáng tạo và ứng dụng TTNT trong thực tiễn.
 
  1.  
Điều 18. Nghĩa vụ đối với mô hình trí tuệ nhân tạo đa dụng
1. Nhà cung cấp mô hình trí tuệ nhân tạo đa dụng, bao gồm mô hình ngôn ngữ lớn và mô hình ngôn ngữ nhỏ, trước khi đưa mô hình ra thị trường hoặc đưa vào sử dụng, phải thực hiện các nghĩa vụ cơ bản sau đây:
a) Xây dựng và lưu giữ tài liệu kỹ thuật, bao gồm quy trình huấn luyện, kiểm thử, các kết quả đánh giá năng lực và giới hạn sử dụng của mô hình.
b) Thực hiện các biện pháp kiểm thử an toàn để xác định và giảm thiểu các rủi ro có thể dự báo được.
c) Thiết lập chính sách nội bộ để tuân thủ pháp luật về sở hữu trí tuệ. Việc sao chép, trích xuất các tác phẩm, cơ sở dữ liệu đã được tiếp cận một cách hợp pháp nhằm mục đích duy nhất là huấn luyện các mô hình trí tuệ nhân tạo không được xem là hành vi xâm phạm quyền tác giả và quyền liên quan trừ khi có quy định khác tại Luật Sở hữu trí tuệ, với điều kiện nhà cung cấp mô hình phải: (a) Áp dụng các biện pháp kỹ thuật phù hợp để bảo đảm an ninh và ngăn chặn việc tái sử dụng dữ liệu cho mục đích khác; và (b) Tôn trọng quyền của chủ sở hữu trong việc từ chối không cho phép sử dụng tác phẩm của mình cho mục đích huấn luyện trí tuệ nhân tạo thông qua các tín hiệu máy có thể đọc được. Bộ Khoa học và Công nghệ chủ trì, phối hợp với Bộ Văn hóa, Thể thao và Du lịch và các bộ, ngành liên quan ban hành tiêu chuẩn kỹ thuật hoặc hướng dẫn về định dạng của tín hiệu máy có thể đọc được này.
d) Cung cấp thông tin và tài liệu hướng dẫn cho các bên triển khai hoặc sử dụng mô hình hạ nguồn, giúp họ hiểu rõ năng lực, giới hạn của mô hình và tuân thủ các quy định của Luật này.
đ) Thiết lập cơ chế báo cáo sự cố nghiêm trọng liên quan đến mô hình.
e) Thực hiện nghĩa vụ minh bạch, gắn nhãn theo quy định tại Điều 16
2. Ngoài các nghĩa vụ quy định tại khoản 1 Điều này, nhà cung cấp mô hình trí tuệ nhân tạo đa dụng được xác định là có rủi ro hệ thống phải thực hiện các nghĩa vụ tăng cường sau đây:
a) Thực hiện đánh giá mô hình theo các quy trình và công cụ tiêu chuẩn hóa, bao gồm tiến hành và lập tài liệu về kiểm thử đối kháng để chủ động xác định và giảm thiểu rủi ro hệ thống.
 b) Liên tục đánh giá và giảm thiểu các rủi ro hệ thống tiềm tàng có thể phát sinh từ việc phát triển, đưa ra thị trường hoặc sử dụng mô hình.
c) Theo dõi, lập hồ sơ và báo cáo kịp thời cho cơ quan quản lý nhà nước có thẩm quyền về sự cố nghiêm trọng, biện pháp khắc phục; đồng thời thông tin cho các tổ chức, cá nhân sử dụng hoặc tích hợp mô hình có thể bị ảnh hưởng để phối hợp xử lý.
d) Bảo đảm mức độ an ninh mạng đầy đủ cho cả mô hình và cơ sở hạ tầng vật lý của nó.
đ) Liên tục cập nhật, điều chỉnh mô hình trong suốt vòng đời sản phẩm nhằm giảm thiểu rủi ro mới phát sinh, kể cả sau khi mô hình đã đưa ra thị trường.
3. Hồ sơ, báo cáo và tài liệu do nhà cung cấp mô hình đa dụng lập ra là căn cứ để các nhà cung cấp hệ thống trí tuệ nhân tạo ở khâu sau sử dụng và kế thừa, nhưng không loại trừ nghĩa vụ xác minh và trách nhiệm cuối cùng của các chủ thể đó
Để bảo đảm hài hòa giữa quyền sở hữu trí tuệ và nhu cầu phát triển mô hình trí tuệ nhân tạo, đề xuất cơ quan soạn thảo bổ sung và hoàn thiện cơ chế pháp lý về quyền từ chối sử dụng dữ liệu cho mục đích huấn luyện mô hình TTNT. Cụ thể, cần quy định rõ quyền của chủ sở hữu tác phẩm, dữ liệu hoặc cơ sở dữ liệu trong việc yêu cầu hệ thống trí tuệ nhân tạo không được thu thập, sử dụng hoặc tiếp tục sử dụng dữ liệu của mình cho mục đích huấn luyện.
Việc này cần được gắn với tín hiệu kỹ thuật chuẩn hóa theo chuẩn quốc tế (tham khảo EU AI Act và tiêu chuẩn kỹ thuật), giúp bảo đảm tính tự động, minh bạch, giảm chi phí tuân thủ và tạo điều kiện triển khai rộng rãi.
Song song đó, đề xuất bổ sung cơ chế lưu vết và minh bạch hóa dữ liệu huấn luyện nhằm bảo đảm khả năng xác minh nguồn dữ liệu và tính hợp pháp của dữ liệu đầu vào. Các nghĩa vụ nên bao gồm:
  1. thiết lập và duy trì nhật ký dữ liệu và quá trình huấn luyện;
  2. công bố thông tin ở mức phù hợp về nguồn dữ liệu được sử dụng (trừ bí mật kinh doanh); và
  3. cho phép cơ quan quản lý truy cập kiểm tra trong trường hợp có dấu hiệu vi phạm. Quy định này nên được cụ thể hóa bằng yêu cầu xây dựng và duy trì hồ sơ mô hình và nhật ký hệ thống theo chuẩn quốc tế.
Đồng thời, kiến nghị quy định rõ cơ chế giải quyết tranh chấp nhanh giữa chủ sở hữu quyền và nhà cung cấp mô hình TTNT thông qua thủ tục rút gọn, hòa giải trực tuyến hoặc cơ chế trọng tài chuyên biệt về công nghệ, nhằm tránh kéo dài tranh chấp và tạo sự chắc chắn pháp lý cho cả doanh nghiệp và chủ thể quyền. Cơ quan quản lý chuyên ngành có thể ban hành danh mục hướng dẫn và mẫu quy trình để hỗ trợ thực thi thống nhất trong hệ thống.
Việc hoàn thiện các cơ chế nêu trên sẽ góp phần vừa bảo vệ quyền lợi chính đáng của chủ sở hữu quyền, vừa bảo đảm môi trường pháp lý linh hoạt và thân thiện với hoạt động nghiên cứu, đổi mới sáng tạo, tránh cản trở sự phát triển của các mô hình nền tảng và hệ sinh thái TTNT tại Việt Nam.
 
  1.  
Điều 21. Đăng ký, Cơ sở dữ liệu quốc gia về trí tuệ nhân tạo và công khai thông tin
1. Cơ quan quản lý nhà nước có thẩm quyền thiết lập và quản lý Cơ sở dữ liệu quốc gia về hệ thống trí tuệ nhân tạo để phục vụ công tác quản lý, giám sát và cung cấp thông tin.
2. Hệ thống trí tuệ nhân tạo thuộc nhóm rủi ro cao bắt buộc phải được đăng ký tại Cơ sở dữ liệu quốc gia trước khi đưa vào sử dụng và phải được cập nhật khi có thay đổi quan trọng. Việc đăng ký và cập nhật được thực hiện trên môi trường điện tử, liên thông với Cổng Dịch vụ công quốc gia và các cơ sở dữ liệu chuyên ngành có liên quan.
3. Nhà cung cấp nước ngoài có sản phẩm/dịch vụ trí tuệ nhân tạo được cung cấp cho người dùng tại Việt Nam và thuộc diện quản lý theo Luật này phải bổ nhiệm đại diện pháp lý tại Việt Nam để chịu trách nhiệm về thông báo, đăng ký, kiểm định và xử lý vi phạm theo quy định của pháp luật.
4. Các thông tin cơ bản về hệ thống trí tuệ nhân tạo rủi ro cao được công khai, bảo đảm cân bằng giữa tính minh bạch và yêu cầu bảo vệ bí mật nhà nước, bí mật kinh doanh và dữ liệu cá nhân. Chính phủ quy định phạm vi, mức độ và hình thức công khai thông tin.
Để bảo đảm tính khả thi, phù hợp với thông lệ quốc tế và tránh tạo rào cản tiếp cận công nghệ, đề xuất cơ quan soạn thảo xem xét quy định ngưỡng áp dụng nghĩa vụ đăng ký và bổ nhiệm đại diện tại Việt Nam đối với nhà cung cấp hệ thống trí tuệ nhân tạo nước ngoài dựa trên các tiêu chí định lượng rõ ràng, thay vì cơ chế áp dụng đồng loạt.
Các tiêu chí có thể bao gồm một hoặc kết hợp các yếu tố:
(i) số lượng người dùng tại Việt Nam vượt một ngưỡng nhất định (ví dụ: từ 100.000 người dùng trở lên trong 12 tháng gần nhất);
(ii) doanh thu, giá trị giao dịch hoặc quy mô hoạt động tại Việt Nam vượt ngưỡng (ví dụ: từ 5 tỷ đồng trở lên/năm); và
(iii) hệ thống thuộc nhóm rủi ro cao theo phân loại pháp luật Việt Nam. Cách tiếp cận này nhằm bảo đảm rằng quy định chỉ áp dụng với các chủ thể có ảnh hưởng thực tế và rủi ro đáng kể đối với môi trường số, đồng thời tránh gây gánh nặng không cần thiết cho các doanh nghiệp vừa và nhỏ, startup, tổ chức nghiên cứu và nền tảng TTNT mã nguồn mở.
(Tham khảo)
Bên cạnh đó, đề xuất bổ sung lựa chọn cơ chế đại diện điện tử đối với các doanh nghiệp nước ngoài thay vì bắt buộc phải có hiện diện pháp lý vật lý tại Việt Nam. Mô hình này có thể tham chiếu từ quy định của EU Digital Services Act và Singapore AI Governance Framework, cho phép doanh nghiệp nước ngoài ủy quyền cho một đơn vị có tư cách pháp nhân hoặc nền tảng dịch vụ được cấp phép tại Việt Nam để thực hiện nghĩa vụ thông báo, phối hợp xử lý vi phạm, tiếp nhận khiếu nại và hợp tác với cơ quan quản lý khi cần thiết. Cách tiếp cận linh hoạt này đồng thời vẫn bảo đảm hiệu lực thực thi, không làm phát sinh chi phí tuân thủ quá mức và không làm thu hẹp cơ hội tiếp cận công nghệ tiên tiến của các tổ chức và cá nhân trong nước.
Ngoài ra, đề xuất quy định cơ chế miễn trừ hoặc cơ chế “khai báo đơn giản” đối với các mô hình và hệ thống trí tuệ nhân tạo phục vụ mục đích nghiên cứu khoa học, giáo dục, đổi mới sáng tạo, hoặc các mô hình mở vận hành phi lợi nhuận; đồng thời có thể yêu cầu các đơn vị này cam kết không sử dụng hệ thống cho mục đích thương mại hoặc xử lý dữ liệu có rủi ro cao nếu không đăng ký theo cơ chế đầy đủ.
Việc bổ sung các điều kiện và lựa chọn linh hoạt nêu trên sẽ giúp cân bằng giữa mục tiêu quản lý, bảo vệ người dùng và thúc đẩy đổi mới sáng tạo; đồng thời tạo điều kiện cho doanh nghiệp Việt Nam tiếp cận nhanh hơn với công nghệ TTNT tiên tiến toàn cầu, góp phần thúc đẩy năng lực cạnh tranh quốc gia trong lĩnh vực công nghệ số.
 

Kiểm duyệt nội dung bởi

LÊ QUANG LÂM

Luật Sư Thành Viên

Zalo
Hotline