Diễn đàn

Luật Trí tuệ nhân tạo trên thế giới và Việt NamBài 2: Kinh nghiệm từ thế giới cho việc xây dựng đạo luật khung về AI tại Việt Nam

Đào Trung Thành, chuyên gia tư vấn chiến lược AI; Nguyễn Trần Minh Quân, Giám đốc Pháp chế của Hiệp hội Blockchain và Tài sản số Việt Nam (VBA); Nguyễn Lan Phương, Tạp chí KH&CN Việt Nam 17/10/2025 14:10

Những ngày này, dự thảo Luật Trí tuệ nhân tạo (AI) của Việt Nam đang được đưa ra lấy ý kiến. Đây là lần đầu tiên “AI” bước ra khỏi các diễn đàn công nghệ để đi vào khuôn khổ của pháp luật trong đó không chỉ nói về thuật toán, mà về niềm tin, quyền con người và trách nhiệm xã hội.

Câu hỏi của thời đại AI

Trên thế giới, bản đồ pháp lý về AI đang được vẽ lại với những sắc độ khác nhau. Liên minh châu Âu (EU) đi tiên phong với Đạo luật AI của EU (EU AI Act), một khung pháp lý thống nhất, ràng buộc toàn khối, quản lý AI theo cấp độ rủi ro, từ “bị cấm” đến “được phép có điều kiện” (European Commission - EC, 2024).

Hoa Kỳ lại chọn hướng đối nghịch: phân mảnh và linh hoạt, dựa vào quyền hạn của các cơ quan hiện có, kết hợp các sắc lệnh hành pháphướng dẫn tự nguyện như AI Risk Management Framework của Viện Tiêu chuẩn và Công nghệ quốc gia Hoa Kỳ (NIST).

Trung Quốc theo đuổi mô hình hành chính tập trung, gắn AI với an ninh, đạo đức và chủ quyền dữ liệu, thể hiện qua Biện pháp quản lý dịch vụ AI tạo sinh (2023).

Hàn Quốc đã thông qua Đạo luật Khung về AI với cách tiếp cận kết hợp giữa pháp lý ràng buộc và khuyến khích đổi mới, nhằm cân bằng phát triển với niềm tin xã hội.

Singapore và Malaysia lại chọn lộ trình mềm hơn: khung hướng dẫn tự nguyện (voluntary frameworks), nhấn mạnh trách nhiệm đạo đức và quản trị theo nguyên tắc, tạo không gian thử nghiệm rộng rãi cho doanh nghiệp (DN) (Personal Data Protection Commission, 2020).

Bức tranh ấy phản chiếu nhiều triết lý quản trị khác nhau. Trong khi EU và Hàn Quốc nhấn mạnh tuân thủ và bảo vệ con người, thì Hoa Kỳ và Singapore tin vào thị trường và sáng tạo, còn Trung Quốc ưu tiên kiểm soát và ổn định xã hội.

Trong bối cảnh ấy, Việt Nam đang đứng trước nhiều lựa chọn. Câu hỏi không chỉ là: “Nên học ai?”, mà sâu hơn là “Ta muốn định hình AI theo hình ảnh của quốc gia như thế nào?”. Bởi chọn cách quản trị AI hôm nay, cũng là chọn hình hài xã hội số của Việt Nam trong tương lai.

Hai dòng pháp luật, hai cách quản trị AI

Đằng sau mỗi đạo luật là một triết lý pháp lý và đằng sau mỗi triết lý là một quan niệm về con người và quyền lực. Quản trị AI không chỉ là vấn đề kỹ thuật mà là tấm gương phản chiếu cách mỗi quốc gia định nghĩa mối quan hệ giữa nhà nước, công nghệ và công dân.

Trên thế giới, có hai truyền thống pháp lý lớn đang chi phối cách tiếp cận với AI: Dân luật (Civil Law)Thông luật (Common Law).

civil-law-and-common-law.png

Truyền thống Civil Law mà tiêu biểu là châu Âu, Hàn Quốc và phần nào Trung Quốc. Các quốc gia này ưu tiên luật hóa mọi khía cạnh quan trọng để tạo sự đồng nhất và minh bạch. Ở đây, niềm tin đặt vào các văn bản thành văn (codified law) hơn là phán quyết của tòa án.

Liên minh châu Âu (EU) với EU AI Act thể hiện rõ mô hình toàn diện, dựa trên rủi ro (risk-based regulation). AI được phân loại thành bốn cấp độ rủi ro: từ không thể chấp nhận (bị cấm) đến tối thiểu (không bị hạn chế) (European Commission, 2024).

Hàn Quốc cũng theo hướng này với Đạo luật AI cơ bản (AI Basic Act), nhấn mạnh niềm tin xã hội (trust) và an toàn, đồng thời ủy quyền cho các nghị định chi tiết để linh hoạt trong thực thi.

Trung Quốc đi xa hơn, kết hợp Civil Law với cơ chế hành chính tập trung: ban hành hàng loạt quy định chuyên biệt như các điều khoản tổng hợp sâu (deep synthesis provisions), các biện pháp AI tạo sinh (generative AI measures), yêu cầu đăng ký thuật toán và đánh giá an ninh nội dung.

Tất cả cùng chia sẻ một đặc trưng là đặt khung ràng buộc từ trên xuống (top-down), xem pháp luật là công cụ kiểm soát rủi ro xã hội.

Truyền thống Common Law mà đại diện là Hoa Kỳ, Singapore và Malaysia. Ở đây, luật không được viết ra trước cho mọi tình huống mà phát triển dần qua thực tiễn và tiền lệ. Trọng tâm không nằm ở “luật cứng” mà ở nguyên tắc, chuẩn mực và hướng dẫn mềm.

Hoa Kỳ không có đạo luật AI toàn diện, mà tận dụng hệ thống cơ quan chuyên ngành hiện có như Uỷ ban Thương mại Liên ban (FTC) (bảo vệ người tiêu dùng), Uỷ ban Cơ hội việc làm bình đẳng (EEOC) (chống phân biệt đối xử), cùng các khung hướng dẫn như Khung quản trị rủi ro AI (AI Risk Management Framework) của NIST. Mô hình này cho phép thị trường tự điều chỉnh nhanh hơn nhà nước (NIST, 2023).

Singapore xây dựng khung quản trị mô hình AI (Model AI Governance Framework) - bộ hướng dẫn mang tính khuyến nghị, được cộng đồng công nghệ tự nguyện áp dụng.

Malaysia cũng đi theo hướng này với Hướng dẫn quốc gia về đạo đức AI (AIGE) năm 2024, một bước đệm để dần tiến tới luật hóa khi công nghệ chín muồi.

Nếu Civil Law giống như đắp đê để kiểm soát dòng chảy, thì Common Law lại đào kênh để dẫn dòng, cho nước chảy tự nhiên nhưng có hướng. Một bên bảo đảm trật tự, bên kia nuôi dưỡng sáng tạo. Tất nhiên mọi sự so sánh đều khập khiễng và mỗi truyền thống luật bao hàm cả những vấn đề bên kia tuy đặc trưng và trọng tâm khác nhau.

Với Việt Nam, sự lựa chọn không đơn giản. Là quốc gia Civil Law mang đặc trưng Xã hội chủ nghĩa, có xu hướng luật hóa”để bảo đảm quản lý thống nhất. Nhưng trong lĩnh vực AI với công nghệ thay đổi từng tháng, một đạo luật quá chi tiết có thể nhanh chóng trở nên lỗi thời.

Câu hỏi đặt ra là liệu Việt Nam có thể xây dựng một Luật Khung (Framework Law) vừa đủ ràng buộc để kiểm soát rủi ro, nhưng vẫn đủ linh hoạt để thúc đẩy đổi mới?

Ba cực quyền lực của AI toàn cầu: châu Âu - Hoa Kỳ - Trung Quốc

Nếu xem cuộc đua AI là bàn cờ quyền lực mới, thì EU, Hoa Kỳ và Trung Quốc đang là ba kỳ thủ đi theo ba hướng khác nhau: EU lập luật, Hoa Kỳ tự điều tiết, Trung Quốc kiểm soát tập trung. Mỗi hướng thể hiện một cách nhìn về mối quan hệ giữa công nghệ, nhà nước và con người.

Châu Âu: đặt con người ở trung tâm luật pháp

Với Đạo luật AI của EU (EU AI Act), EU là khu vực đầu tiên trên thế giới ban hành một bộ luật toàn diện, có hiệu lực ràng buộc ở cấp độ khu vực. Luật được xây dựng theo nguyên tắc quản lý dựa trên rủi ro (risk-based regulation), chia hệ thống AI thành 4 nhóm: bị cấm, rủi ro cao, rủi ro hạn chế, và rủi ro tối thiểu (EC, 2024).

Điểm đặc sắc của EU không chỉ nằm ở cấu trúc kỹ thuật, mà ở triết lý: AI phải phục vụ con người, không thay thế con người. Bởi vậy, luật nhấn mạnh các nguyên tắc về minh bạch, trách nhiệm giải trình (accountability) và bảo vệ dữ liệu cá nhân, đồng thời quy định mức phạt lên tới 35 triệu euro hoặc 7% doanh thu toàn cầu cho hành vi vi phạm.

Theo cách này, châu Âu đặt cược vào “niềm tin” hơn là “tốc độ”: hy vọng tạo ra một môi trường AI đáng tin cậy (trustworthy AI) như nền tảng cho đổi mới bền vững.

Hoa Kỳ: từ quản lý rủi ro sang thúc đẩy sức mạnh cạnh tranh.

Trong thời kỳ Tổng thống Joe Biden, Hoa Kỳ ban hành Sắc lệnh Hành pháp năm 2023 về AI an toàn và đáng tin cậy (National Institute of Standards and Technology, 2023) nhấn mạnh các tiêu chuẩn kiểm soát, minh bạch dữ liệu và trách nhiệm DN. Cách tiếp cận này chịu ảnh hưởng mạnh từ mô hình “đạo đức AI” của châu Âu, đặt trọng tâm vào kiểm soát rủi ro và bảo vệ người tiêu dùng.

Tuy nhiên, đến năm 2025, Tổng thống Donald Trump đã hủy bỏ sắc lệnh này và chuyển hướng chính sách. Chính quyền mới cho rằng các quy định khắt khe đang “làm suy yếu vị thế dẫn đầu của Mỹ về công nghệ AI”. Thay vì kiểm soát, Nhà Trắng chủ trương mở rộng không gian đổi mới, giảm bớt ràng buộc hành chính và tăng cường hợp tác với doanh nghiệp tư nhân - đặc biệt là các tập đoàn như OpenAI, Anthropic, Google DeepMind hay xAI.

Triết lý mới được tóm gọn trong khẩu hiệu không chính thức của giới công nghệ Hoa Kỳ: “Innovate first, regulate later” (Hãy đổi mới trước, quản lý sau).

Mô hình Hoa Kỳ, vì vậy, quay lại đúng bản chất Common Law: quản trị bằng thị trường, tiền lệ và sáng kiến ngành hơn là luật cứng. Nhà nước đóng vai trò định hướng và can thiệp tối thiểu. Rủi ro là sự thiếu nhất quán và nguy cơ lạm dụng; nhưng lợi thế là giữ được tốc độ và sức mạnh cạnh tranh toàn cầu của hệ sinh thái AI Hoa Kỳ.

Trung Quốc kiểm soát để duy trì trật tự và chủ quyền dữ liệu. Từ năm 2021, Trung Quốc đã ban hành chuỗi văn bản pháp lý: Luật Bảo mật dữ liệu (Data Security Law), Luật Bảo vệ thông tin cá nhân (PIPL), Quy định về tổng hợp sâu (Deep Synthesis Provisions) và Biện pháp quản lý dịch vụ AI tạo sinh (2023).

Khác với EU hay Hoa Kỳ, Trung Quốc đặt AI trong bối cảnh an ninh chính trị, ổn định xã hội và đạo đức văn hóa. Các quy định yêu cầu hệ thống AI phải “phù hợp với giá trị cốt lõi xã hội chủ nghĩa”, không được tạo nội dung “đe dọa an ninh quốc gia hoặc trật tự xã hội”. Các DN cung cấp dịch vụ AI tạo sinh phải đăng ký thuật toán, đánh giá an ninh, và chịu trách nhiệm liên đới nếu sản phẩm bị lạm dụng.

Mô hình này thể hiện một tư duy hành chính hóa công nghệ với việc kiểm soát chặt chẽ nhưng cũng giúp Trung Quốc nhanh chóng định hình khuôn khổ AI trong phạm vi quốc gia.

Ba mô hình: luật hóa toàn diện (EU), tự điều tiết (Hoa Kỳ) và kiểm soát hành chính (Trung Quốc) là ba cực chính của bản đồ pháp lý AI hiện nay. Không có mô hình nào hoàn hảo, chỉ có mô hình phù hợp với bối cảnh văn hóa, chính trị và năng lực quản trị của mỗi nước.

google_ai_studio_2025-10-16t04_23_54.548z.png

Với Việt Nam, câu hỏi không còn là “sao chép ai”, mà là chọn triết lý nào làm nền tảng: niềm tin vào con người, vào thị trường, hay vào trật tự xã hội?

Nhìn sang các quốc gia châu Á: Hàn Quốc, Singapore và Malaysia

Nếu châu Âu, Hoa Kỳ và Trung Quốc đang định hình ba cực lớn của trật tự AI, thì châu Á lại là phòng thí nghiệm đa dạng nhất về chính sách công nghệ. Không có một mô hình thống nhất, nhưng có cùng một câu hỏi: làm sao vừa thúc đẩy đổi mới, vừa duy trì trật tự xã hội và niềm tin công dân.

Hàn Quốc: kết hợp giữa ràng buộc pháp lý và linh hoạt thực thi.

Năm 2023, Hàn Quốc trở thành quốc gia thứ hai trên thế giới (sau EU) thông qua Đạo luật Khung về AI (AI Basic Act) (Republic of Korea, Ministry of Science and ICT, 2025). Đây không chỉ là một văn bản kỹ thuật mà là tuyên ngôn chính sách quốc gia: “AI phải phục vụ con người, và niềm tin là nền tảng của đổi mới”.

Luật đặt ra hai mục tiêu song hành vừa thúc đẩy phát triển, vừa bảo đảm niềm tin xã hội, được cụ thể hóa bằng ba cơ chế:

Thứ nhất, thiết lập hệ thống đánh giá rủi ro tương tự EU, nhưng với mức linh hoạt cao hơn.

Thứ hai, ủy quyền chi tiết cho các nghị định của Tổng thống và bộ, ngành để kịp thích ứng với tốc độ thay đổi của công nghệ.

Thứ ba, thành lập Hội đồng AI quốc gia để điều phối chiến lược toàn diện giữa nhà nước, học giới và DN.

Cách làm này phản ánh triết lý “trung đạo” của Hàn Quốc là luật hóa để bảo đảm trật tự, nhưng để ngỏ cánh cửa cho sáng tạo.

Singapore: hướng dẫn mềm, nhưng hiệu quả cao.

Singapore không ban hành luật riêng về AI. Thay vào đó, nước này xây dựng Khuôn khổ Quản trị AI Mẫu (Model AI Governance Framework - MAIGF) từ năm 2019 và cập nhật liên tục. Bộ khung này mang tính tự nguyện (voluntary framework), đưa ra các nguyên tắc như công bằng, minh bạch, trách nhiệm và khả năng giải trình. (Personal Data Protection Commission, 2020).

Năm 2024, Singapore tiếp tục ra mắt Khuôn khổ dành cho AI tạo sinh (Generative AI Governance Framework) - một trong những tài liệu tiên phong trên thế giới.

Thay vì “ép buộc tuân thủ”, Singapore chọn cách khuyến khích đối thoại giữa chính phủ và DN, tạo ra một “sandbox” cho phép thử nghiệm có kiểm soát. Mô hình này phù hợp với quốc gia nhỏ, định hướng toàn cầu, nơi thể chế nhanh nhẹn là lợi thế cạnh tranh.

sanbox-asian.001z.png

Malaysia: bước đi mềm nhưng có tầm nhìn xa.

Malaysia chưa có luật AI, nhưng năm 2024 đã công bố Hướng dẫn Quốc gia về Đạo đức và Quản trị AI (AIGE), bộ khung dựa trên nguyên tắc, không ràng buộc pháp lý.

AIGE được thiết kế như “phòng chờ của luật hóa” nhằm giúp DN và cơ quan nhà nước tập dượt các chuẩn mực đạo đức, trong khi chính phủ quan sát và hiệu chỉnh trước khi xây dựng đạo luật cứng.
Điều đáng chú ý là AIGE được gắn liền với Lộ trình AI Quốc gia (AI-RMAP), thể hiện tư duy chính sách gắn đổi mới với thực hành đạo đức - một cách làm “mềm” nhưng bài bản.

Ba quốc gia này không đi theo cực nào hoàn toàn, mà đang hình thành mô hình lai châu Á (Asian hybrid model): Một là có khung pháp lý như Civil Law. Hai là có sự linh hoạt và tự nguyện như Common Law. Ba là có yếu tố điều phối tập trung đặc trưng Á Đông.

Đây chính là điều làm Việt Nam đáng suy nghĩ. Trong một khu vực nơi niềm tin công dân, văn hóa cộng đồng và vai trò nhà nước đều mạnh mẽ, mô hình “lai” (hybrid) có thể là chìa khóa dung hòa giữa phát triển và kiểm soát.

Việt Nam ở ngã ba lựa chọn

Khi dự thảo Luật AI của Việt Nam được đưa ra lấy ý kiến, điều quan trọng không chỉ là viết thêm một bộ luật, mà là xác lập triết lý quản trị công nghệ cho nhiều thập niên tới. Câu hỏi không phải “có cần luật hay không” mà là luật kiểu gì, cho ai, và để làm gì.

Việt Nam thuộc hệ thống Luật Dân sự (Civil Law), đồng thời mang đặc trưng Luật Xã hội chủ nghĩa (Socialist Law), nghĩa là coi pháp luật là công cụ tổ chức xã hội, bảo vệ lợi ích cộng đồng và định hướng phát triển quốc gia. Trong bối cảnh ấy, AI vừa là nguồn lực mới của tăng trưởng, vừa là nguy cơ mới đối với an ninh, văn hóa và việc làm. Bài toán vì thế không chỉ nằm ở công nghệ, mà ở cân bằng giữa kiểm soát và sáng tạo.

Từ kinh nghiệm các nước, có thể thấy Việt Nam khó đi theo một cực nào hoàn toàn:

Thứ nhất, nếu luật hóa quá chi tiết như EU, có nguy cơ làm chậm tốc độ đổi mới, nhất là khi DN trong nước còn yếu.

Thứ hai, nếu thả lỏng như Hoa Kỳ, sẽ thiếu năng lực quản lý rủi ro, dễ bị lạm dụng dữ liệu và lan truyền nội dung độc hại.

Thứ ba, nếu kiểm soát hành chính như Trung Quốc, ta có thể đảm bảo an ninh, nhưng đánh đổi tự do sáng tạo và hợp tác quốc tế.

Giữa những đối cực đó, hướng phù hợp nhất có thể là Luật khung về AI (AI Framework Law), một đạo luật ràng buộc ở nguyên tắc, nhưng linh hoạt trong thực thi. Mô hình này có thể học hỏi từ Hàn Quốc và Singapore, nhưng được điều chỉnh theo điều kiện Việt Nam.

Cụ thể, có ba trụ cột cần được xác lập:

Một là, khung pháp lý mang tính định hướng và thống nhất.

Luật cần đưa ra định nghĩa chính thức về AI, xác định nguyên tắc sử dụng và phát triển, phân loại rủi ro cao - thấp - bị cấm, và quy định trách nhiệm của tổ chức, cá nhân. Điều này giúp tránh tình trạng manh mún giữa các bộ ngành, vốn là điểm yếu cố hữu của chính sách công nghệ ở ta.

Hai là, linh hoạt trong quy định kỹ thuật.

Các tiêu chuẩn chi tiết như tiêu chí đánh giá rủi ro, quy trình kiểm định hay quản trị dữ liệu nên được giao cho nghị định và thông tư để dễ cập nhật. Công nghệ thay đổi nhanh hơn chu kỳ lập pháp, nên cần một cơ chế “mềm” để thích ứng mà không phải sửa luật liên tục.

Ba là, tích hợp giá trị Việt Nam trong nguyên tắc đạo đức.

Việt Nam có thể tham chiếu các khung quốc tế như AI Principles (OECD, 2019) hay Khuyến nghị của UNESCO về đạo đức AI (UNESCO, 2021), nhưng cần Việt hóa trong tinh thần:

Thứ nhất, bảo đảm an ninh và chủ quyền số,

Thứ hai, tôn trọng quyền con người và sự minh bạch,

Thứ ba, khuyến khích AI phục vụ phát triển bền vững và lợi ích cộng đồng.

Điều này khác biệt với cách tiếp cận “thuần kỹ trị”: Luật AI Việt Nam không chỉ để kiểm soát công nghệ, mà còn để xác định giá trị quốc gia trong kỷ nguyên máy học.

Một đạo luật khung như vậy sẽ không chỉ là “lá chắn pháp lý”, mà là tuyên ngôn chiến lược rằng Việt Nam sẵn sàng tham gia cuộc chơi toàn cầu về AI, với bản sắc và ưu tiên riêng.

Câu hỏi còn lại, cũng là lời kết mở: Liệu ta có đủ dũng cảm để làm một đạo luật định hình tương lai, chứ không chỉ phản ứng với hiện tại?

Kết tinh và hướng mở

Mỗi thế hệ đều có một loại “luật” phản chiếu nỗi lo và khát vọng của mình. Thế kỷ 20, loài người viết luật để kiềm chế vũ khí hạt nhân. Thế kỷ 21, ta đang viết luật để kiểm soát trí tuệ mà chính mình tạo ra.

Với Việt Nam, dự thảo Luật AI không chỉ là một văn bản pháp lý, mà là thước đo tầm nhìn quốc gia: Chúng ta muốn trở thành người dùng an toàn, hay người sáng tạo có trách nhiệm? Ta chọn đứng ngoài nhìn thế giới định nghĩa luật chơi, hay muốn góp một tiếng nói riêng trong trật tự mới?

viet-nam-chon-mo-hinh-lai.png

Một đạo luật có thể ràng buộc hành vi, nhưng chính triết lý đằng sau nó mới định hình tương lai. Nếu coi AI chỉ là công cụ, chúng ta sẽ viết một đạo luật kỹ thuật. Nếu coi AI là năng lực mở rộng của con người, chúng ta sẽ viết một đạo luật nhân văn trong đó công nghệ phục vụ phẩm giá, tri thức và sự tiến bộ (OECD, 2019).

Pháp trị trong thời đại AI không còn là “nhà nước quản công dân”, mà là xã hội cùng nhau quản công nghệ. Nó đòi hỏi một kiểu năng lực mới: không chỉ hiểu thuật toán, mà còn hiểu giới hạn của con người; không chỉ đo lường rủi ro, mà còn nuôi dưỡng niềm tin.

Khi ta bắt đầu viết luật cho AI, ta thực ra đang viết luật cho chính mình và cho cách ta đối thoại với tương lai. Và có lẽ, câu hỏi lớn nhất không nằm ở “AI sẽ thay đổi thế giới thế nào”, mà ở chỗ: Chúng ta muốn thế giới và con người Việt Nam trong đó được định hình ra sao bởi AI? (UNESCO, 2021).

Tài liệu tham khảo
[1] Đào Trung Thành. (2025), Tổng quan về Luật trí tuệ nhân tạo trên thế giới, Tạp chí Khoa học và
Công nghệ Việt Nam.
https://vjst.vn/tong-quan-ve-luat-tri-tue-nhan-tao-tren-the-gioi-76313.html
[2] European Commission. (2024). Regulation (EU) 2024/1689 on artificial intelligence (Artificial Intelligence Act), Brussels: Publications Office of the European Union.
[3] National Institute of Standards and Technology. (2023), Artificial Intelligence Risk Management Framework (AI RMF 1.0), U.S. Department of Commerce.
[4] Republic of Korea, Ministry of Science and ICT (2025), Basic Act on the Development of Artificial Intelligence
[Law], Seoul, Korea.
[5] Personal Data Protection Commission. (2020). Model AI Governance Framework (2nd ed.). Singapore: Smart Nation and Digital Government Office.
[6] UNESCO (2021), Recommendation on the Ethics of Artificial Intelligence, Paris: UNESCO.
[7] OECD. (2019). OECD Principles on Artificial Intelligence. Paris: OECD Publishing./.

Đào Trung Thành, chuyên gia tư vấn chiến lược AI; Nguyễn Trần Minh Quân, Giám đốc Pháp chế của Hiệp hội Blockchain và Tài sản số Việt Nam (VBA); Nguyễn Lan Phương, Tạp chí KH&CN Việt Nam