Thứ ba, 20/05/2025 12:18

Chính sách nào cho phát triển trí tuệ nhân tạo ở Việt Nam?

Mới đây, Viện Nghiên cứu Chính sách và Phát triển truyền thông (IPS) công bố Báo cáo “Chính sách về trí tuệ nhân tạo (AI) ở Việt Nam: Cân bằng giữa thúc đẩy phát triển và kiểm soát rủi ro”. Ngoài việc khẳng định những lợi ích, rủi ro, tác động tiêu cực đối với con người, xã hội..., Báo cáo đã đánh giá một số hạn chế và đề xuất định hướng chính sách phát triển AI tại Việt Nam.

Chính sách, pháp luật về trí tuệ nhân tạo ở Việt Nam cần được điều chỉnh

Báo cáo của IPS cho rằng, mặc dù một số văn bản đã ban hành hoặc đang được xây dựng, nhưng nhìn chung, chính sách, pháp luật về AI của Việt Nam vẫn còn hạn chế. Chiến lược quốc gia về AI của Việt Nam ban hành năm 2021 đã lạc hậu so với sự phát triển quá nhanh của AI; còn chung chung, chưa rõ trọng tâm, trọng điểm; chưa có các chính sách, quy định chi tiết hơn để tạo ra lộ trình rõ ràng phía trước. Chiến lược cũng không nhắc đến vai trò của các bên tham gia khác như doanh nghiệp vừa và nhỏ, các công ty khởi nghiệp, các tổ chức xã hội, những người hưởng lợi từ AI; đồng thời chưa chú trọng làm rõ khái niệm, nội dung cụ thể về đạo đức AI ở tầm quốc gia.

Khuôn khổ chính sách, pháp luật hiện hành vẫn còn những hạn chế, hoặc chưa điều chỉnh một số vấn đề về thúc đẩy phát triển cũng như kiểm soát rủi ro của AI. Cụ thể là: chưa có quy định rõ ràng, cụ thể đủ mạnh để khuyến khích sự phát triển của AI, cả ở khu vực công và tư nhân; chưa có các quy định cụ thể về cấp độ rủi ro, các biện pháp tương ứng cần phải thực hiện để kiểm soát các hệ thống AI; pháp luật hiện hành chưa đề cập cụ thể đến vấn đề nội dung do AI tạo ra có xâm phạm quyền sở hữu trí tuệ hay không; thiếu những quy định cụ thể điều chỉnh việc kiểm soát rủi ro đối với quyền riêng tư, sử dụng dữ liệu cá nhân, bảo mật trong phát triển, triển khai, ứng dụng AI; pháp luật lao động, việc làm chưa có quy định về một số vấn đề mới nổi liên quan đến sử dụng AI tại nơi làm việc; cơ chế khiếu nại, khiếu kiện, giải quyết tranh chấp nói chung, cũng như khiếu kiện về thiệt hại, vi phạm do việc triển khai, sử dụng AI gây ra còn là một khoảng trống lớn; hệ thống pháp luật vẫn thiếu các quy định rõ ràng về địa vị pháp lý của các thực thể AI trong các mối quan hệ xã hội, trách nhiệm của các bên liên quan...

Ba định hướng lớn

Từ phân tích chính sách AI trên thế giới và những hạn chế của Việt Nam, nhóm nghiên cứu của IPS đã đưa ra 3 định hướng tiếp cận cho chính sách AI ở Việt Nam. Cụ thể là:

Cân bằng giữa kiểm soát rủi ro với phát triển trí tuệ nhân tạo

Báo cáo của IPS cho rằng, việc ban hành các quy định mới cần lưu ý các nguyên lý và trật tự pháp luật luôn bền vững theo thời gian, cho nên trước hết cần xem xét khuôn khổ pháp luật hiện tại đã đủ khả năng để xử lý các vấn đề liên quan đến AI hay chưa; nếu không đủ mới cân nhắc ban hành quy định mới. Chẳng hạn, vấn đề pháp lý dân sự cốt yếu là xác định AI là chủ thể tham gia quan hệ pháp luật hay là tài sản. Nếu AI không là chủ thể mới tham gia quan hệ pháp luật thì đó là tài sản, cho nên việc điều chỉnh các mối quan hệ pháp lý liên quan đến AI cần theo quy định về tài sản của pháp luật dân sự hiện tại. Đối với nhiều vấn đề liên quan đến AI, có thể lựa chọn cách tiếp cận “luật mềm” như các nguyên tắc đạo đức, bộ quy tắc ứng xử, hướng dẫn kỹ thuật. Nhánh lập pháp có thể cần can thiệp, nhưng hiện chưa phải thời điểm quy định chặt chẽ, mà nên để dành không gian phát triển cho AI.

Trên phương diện quản trị rủi ro của AI, cần đánh giá, điều chỉnh AI theo các mức độ rủi ro để có phương án phù hợp với mức độ rủi ro đã được xác định; mỗi cấp độ rủi ro có những biện pháp kiểm soát phù hợp. Các công cụ chính sách cần được áp dụng tương thích với mức độ rủi ro: đối với rủi ro mức độ cao nhất, những quy định pháp luật khắt khe, có tính bắt buộc thực hiện là cần thiết; đối với rủi ro ở mức độ thấp hơn, các yêu cầu pháp lý nên “nhẹ nhàng” hơn; và đối với các rủi ro thấp, chỉ cần áp dụng hướng dẫn, tiêu chuẩn kỹ thuật, bộ quy tắc ứng xử tự nguyện.

Song song với thúc đẩy, phát triển AI đòi hỏi kiểm soát rủi ro theo phạm vi, mức độ nắm giữ quyền lực của các chủ thể tham gia vào vòng đời hệ thống AI; theo đó, chủ thể nào nắm giữ quyền lực nhiều hơn thì phải chịu sự kiểm soát chặt chẽ hơn và ngược lại. Trong quá trình xây dựng, thực thi chính sách về AI, cần cân bằng giữa các giá trị đối lập, chẳng hạn như quyền riêng tư và tính minh bạch. Cách tiếp cận phù hợp là tùy theo ngữ cảnh, trong đó các bên liên quan ưu tiên các giá trị dựa trên ứng dụng cụ thể của hệ thống AI; thích ứng các loại hệ thống AI với bối cảnh khác nhau.

Để tận dụng lợi ích của AI cho phát triển kinh tế mà vẫn đảm bảo sự riêng tư, tự do cá nhân trong xử lý lượng lớn dữ liệu cá nhân, có thể ưu tiên áp dụng nguyên tắc hợp lý và tương thích: cho phép sử dụng lại dữ liệu cá nhân vào mục đích khác mục đích ban đầu trong trường hợp không ảnh hưởng đến lợi ích hợp pháp, chính đáng của chủ thể dữ liệu (có sử dụng biện pháp bảo mật phù hợp).

Kết hợp các công cụ chính sách khác nhau

Qua nghiên cứu kinh nghiệm các nước, báo cáo của IPS cho thấy, để điều chỉnh các vấn đề liên quan đến AI, trong đó có kiểm soát rủi ro trong phát triển, triển khai, ứng dụng AI, chỉ riêng pháp luật là không đủ. Cần áp dụng các công cụ chính sách khác nhau như: Các nguyên tắc lớn về AI của Tổ chức Hợp tác và Phát triển Kinh tế (OECD), Tổ chức Giáo dục, Khoa học và Văn hóa Liên hợp quốc (UNESCO), Hiệp hội các Quốc gia Đông Nam Á (ASEAN); các văn kiện chính sách như chiến lược quốc gia về AI, chiến lược quốc gia về dữ liệu; các văn bản quy phạm pháp luật như luật, nghị định...

Theo nhóm nghiên cứu của IPS, cần sửa đổi, bổ sung Chiến lược quốc gia về AI cho phù hợp với sự phát triển của công nghệ AI như AI tạo sinh, AI tác nhân; đề ra tầm nhìn, mục tiêu lộ trình phát triển AI; chú trọng đồng thời cả thúc đẩy, hỗ trợ phát triển cùng với quản trị rủi ro; bảo đảm AI có trách nhiệm, đáng tin cậy, tuân theo các giá trị của con người; ưu tiên phát triển AI theo lĩnh vực hẹp trên cơ sở ứng dụng các mô hình AI đã được phát triển trên thế giới. Chiến lược cũng cần giao trách nhiệm cụ thể, rõ ràng, hợp lý hơn cho các bộ, ngành; vai trò của các bên liên quan trong phát triển AI ở Việt Nam.

Khung pháp luật trực tiếp điều chỉnh về AI ở Việt Nam trong thời gian tới nên theo cả hai cách tiếp cận: theo chiều rộng và theo những lĩnh vực hẹp. Cụ thể là Luật Công nghiệp Công nghệ số cần có những nội dung khái quát về các chính sách khuyến khích, hỗ trợ phát triển AI; kiểm soát rủi ro AI ở Việt Nam. Các nội dung chi tiết, mang tính kỹ thuật về AI nói chung, cũng như AI trong những lĩnh vực hẹp nên được điều chỉnh trong nghị định, thông tư.

Báo cáo của IPS cũng khuyến nghị cần sớm xây dựng khung pháp lý để triển khai cơ chế thử nghiệm có kiểm soát (sandbox) đối với các ý tưởng, sản phẩm, dịch vụ công nghệ mới; nếu an toàn, hiệu quả, có thể mở rộng, nếu không, phải điều chỉnh kịp thời để tránh rủi ro và lãng phí nguồn lực. Thời hạn thử nghiệm 2 năm trở xuống; phạm vi thử nghiệm được xác định phù hợp với từng trường hợp; thẩm quyền phê duyệt tham gia thử nghiệm thuộc các bộ, ngành; phạm vi, mức độ miễn trừ trách nhiệm pháp lý cho các doanh nghiệp, tổ chức tham gia thử nghiệm.

Tiếp tục xây dựng các bộ tiêu chuẩn, quy chuẩn kỹ thuật liên quan đến AI có tính chất tự nguyện, theo các tiêu chuẩn quốc tế của Tổ chức Tiêu chuẩn hóa Quốc tế (ISO) như các tiêu chuẩn về quản trị AI trong doanh nghiệp, vòng đời của hệ thống AI, đạo đức AI. Các nội dung cần chú ý về xã hội, môi trường liên quan đến AI. Bên cạnh đó, tổ chức, doanh nghiệp, cá nhân có thể theo cơ chế tuân thủ tự nguyện các bộ quy tắc ứng xử, hoặc các bộ tiêu chuẩn, quy chuẩn công nghệ.

Tiếp cận tổng thể, thu hút sự tham gia của các bên liên quan

Báo cáo của IPS khuyến cáo, cần tránh các cách tiếp cận phân mảnh trong điều chỉnh AI. Để phối hợp các cơ quan khác nhau trong Chính phủ, có thể cân nhắc phương án thiết lập cơ chế liên ngành có tính đại diện, hiệu quả và cân bằng các quan điểm, góc nhìn khác nhau, sao cho chính sách phù hợp với lợi ích của cả Chính phủ và nhân dân.

Các bên liên quan trong xã hội đa dạng cần được tham gia từ đầu trong vòng đời của hệ thống AI; không chỉ các chuyên gia kỹ thuật, doanh nghiệp, mà còn cả các chuyên gia pháp lý, các chuyên gia về quyền con người, đại diện từ cộng đồng, các tổ chức xã hội và các nhóm khác có thể bị ảnh hưởng bởi hệ thống AI. Trong đó, cần đặc biệt tham vấn ý kiến của các cơ sở nghiên cứu, thực hành về quyền con người. Các bên liên quan cũng cần được tạo cơ hội tham gia tích cực vào việc tạo ra và thử nghiệm các mô hình, ứng dụng AI. Quá trình lặp đi lặp lại này cho phép phản hồi liên tục và điều chỉnh, đảm bảo rằng, thiết kế cuối cùng phù hợp với các giá trị và nhu cầu của các bên liên quan. Cần thu thập, tổng hợp thông tin từ các bên liên quan để hiểu quan điểm, nhu cầu và cách họ diễn giải các giá trị mà một hệ thống AI cần đạt được trong bối cảnh đó.

Nhà nước cần tham gia thúc đẩy, ưu tiên ứng dụng AI để bảo đảm, nâng cao quyền con người như ứng dụng AI trong dịch vụ hành chính công, các ứng dụng giúp người khuyết tật tiếp cận giáo dục, chăm sóc sức khỏe từ xa. Các ứng dụng AI luôn phải đảm bảo yếu tố thân thiện với mọi người dùng để tránh hậu quả không những không giúp gì cho người dễ tổn thương mà còn tạo ra một nhóm dễ tổn thương mới là yếu thế về công nghệ. Nhà nước cần điều tiết để phân bổ lại thu nhập, cơ hội trong xã hội như bảo đảm thực hiện trách nhiệm xã hội của doanh nghiệp, trách nhiệm đào tạo lại, đào tạo nâng cao cho người lao động.

Vũ Văn Hưng

 

 

Đánh giá

X
(Di chuột vào ngôi sao để chọn điểm)