Ý kiến chuyên gia

Khung đạo đức AI quốc gia: Cần ít nguyên tắc hơn, hành động nhiều hơn

Đào Trung Thành 08/12/2025 16:31

Trong khi dự thảo Luật trí tuệ nhân tạo (AI) đang được chuẩn bị, Bộ Khoa học và Công nghệ đã đưa ra Dự thảo Khung đạo đức trí tuệ nhân tạo quốc gia để xin ý kiến. Đây là bước đi quan trọng, bởi nếu luật là “phần cứng” thì khung đạo đức chính là “hệ điều hành” định hướng cách chúng ta thiết kế, triển khai và sử dụng AI trong đời sống.

dao-duc-ai.jpg

Từ góc nhìn của người làm truyền thông số và đã trực tiếp đào tạo cán bộ quản lý, giảng viên, kỹ sư công nghệ về đạo đức AI trong một dự án do Mỹ tài trợ vào tháng 5/2025, tác giả cho rằng: Khung Đạo đức AI của Việt Nam đã đi đúng hướng, nhưng vẫn cần một số điều chỉnh để thực sự “dễ nhớ, dễ dạy, dễ làm” trong thực tế.

Bài viết này tập trung vào hai điểm then chốt: Cấu trúc 12 nguyên tắc đạo đức AI và bài học rút ra từ kinh nghiệm quốc tế gắn với bối cảnh Việt Nam.

Mười hai nguyên tắc - nhiều có phải là tốt?

Dự thảo Khung Đạo đức AI hiện nêu ra 12 nguyên tắc, được trình bày gần như ngang hàng với nhau. Nhìn qua, đây là một danh sách khá đầy đủ, bao quát từ an toàn, bảo mật, công bằng, minh bạch, quyền riêng tư cho đến lợi ích xã hội. Về mặt nội dung, 12 nguyên tắc ngang hàng rất khó nhớ, khó dạy và khó đưa vào quy trình quản trị rủi ro.

Nếu nhìn sang khung đạo đức AI “best practice” trên thế giới như của Tổ chức hợp tác và phát triển kinh tế (OECD), Tổ chức Giáo dục, Khoa học và Văn hoá của Liên hợp quốc (UNESCO), Viện Tiêu chuẩn và Công nghệ quốc gia Hoa Kỳ (NIST) hay các hướng dẫn của Liên minh châu Âu (EU) sẽ thấy cách tiếp cận thường xoay quanh một số ít giá trị cốt lõi, khoảng 5 đến 7 nhóm, rồi từ đó triển khai ra các tiêu chí cụ thể.

Vì vậy, thay vì bỏ bớt, có thể tổ chức lại một cách hợp lý, vẫn giữ nguyên 12 nội dung hiện có, nhưng phân vào 5 đến 6 cụm giá trị nền tảng, chẳng hạn: Cụm quyền con người và phẩm giá; Cụm công bằng và không phân biệt đối xử; Cụm an toàn, bảo mật và độ tin cậy hệ thống; Cụm minh bạch và trách nhiệm giải trình; Cụm quyền riêng tư và quản trị dữ liệu; Cụm lợi ích xã hội và phát triển bền vững.

Mười hai nguyên tắc hiện nay khi đó trở thành các tiêu chí con dưới những cụm giá trị này.

Cách làm này mang lại ba lợi ích rõ ràng:

Thứ nhất, thông điệp truyền thông trở nên đơn giản hơn, công chúng và cán bộ chỉ cần ghi nhớ 5 đến 6 giá trị chính;

Thứ hai, công tác đào tạo và kiểm tra nội bộ thuận lợi hơn, từ đó dễ xây dựng danh sách kiểm tra (checklist), bộ câu hỏi tự đánh giá;

Thứ ba, cấu trúc này tương thích với cách trình bày của nhiều khung đạo đức quốc tế, giúp Việt Nam nói cùng một “ngôn ngữ khái niệm” với thế giới.

Các triết gia cổ điển như Aristotle không liệt kê hàng chục đức hạnh riêng rẽ, mà quy tụ chúng về một số đức hạnh nền tảng, rồi từ đó triển khai ra vô số biểu hiện trong đời sống. Khung đạo đức AI nếu muốn đứng vững lâu dài, cũng nên có một “tầng đức hạnh cốt lõi” như thế.

Cần lý giải rõ vì sao lại là 12?

Trong các phụ lục và bản thuyết minh, Tổ soạn thảo Luật đã làm một việc rất đáng ghi nhận, đó là so sánh chi tiết Khung Đạo đức AI của Việt Nam với các chuẩn mực quốc tế và văn bản trong nước. Tuy nhiên, vẫn còn thiếu một mảnh ghép quan trọng: Cơ sở lý luận của việc chọn 12 nội dung này và xếp chúng thành cấu hình hiện tại.

Câu hỏi đặt ra là: Vì sao lại là 12 mà không phải 8 hay 10? Vì sao những nội dung này được xếp riêng rẽ, trong khi nhiều nội dung có thể gộp lại thành cụm? Và vì sao cấu hình này phù hợp nhất với bối cảnh Việt Nam, chứ không chỉ là “bản tổng hợp” của những gì thế giới đang có?

Một tiểu mục ngắn mang tên “Cơ sở lý luận của cấu trúc nguyên tắc” trong bản thuyết minh có thể trả lời các câu hỏi đó. Cần nêu rõ những nhóm chủ đề hội tụ trong các khung quốc tế, ví dụ như an toàn, công bằng, minh bạch, trách nhiệm, riêng tư, lợi ích xã hội, rồi giải thích rằng 12 nội dung của Khung Việt Nam là sự triển khai chi tiết của các nhóm chủ đề này, dựa trên tiêu chí bao quát, tách bạch và dễ vận dụng.

Làm được như vậy, Khung Đạo đức AI sẽ đứng vững không chỉ về mặt kỹ thuật, mà còn về mặt lý luận, cho thấy Việt Nam không “chắp vá” các nguyên tắc quốc tế, mà chủ động thiết kế một cấu trúc phù hợp với mình.

1.gop-y-ve-cau-truc-12-nguyen-tac.png

Khung đạo đức phải đi cùng quản trị rủi ro

Một bài học lớn từ các nước đi trước là: Đạo đức AI không thể dừng ở mức nêu nguyên tắc. Trong EU AI Act hay khung NIST AI RMF, nguyên tắc luôn đi kèm với những câu hỏi rất thực tế: Hệ thống AI này thuộc loại rủi ro nào, nghĩa vụ của từng bên ra sao, có đánh giá tác động trước khi triển khai hay không, được giám sát như thế nào trong suốt vòng đời.

Dự thảo Khung Đạo đức AI của Việt Nam đã có những bước tiến quan trọng khi phân vai trách nhiệm cho các nhóm chủ thể khác nhau và đề cập đến minh bạch, gắn nhãn nội dung do AI tạo ra. Nhưng để không dừng ở khẩu hiệu, cần gắn chặt khung nguyên tắc với một khung quản trị rủi ro cụ thể.

Một hướng đi khả thi là nối 12 nội dung đạo đức với 4 nhóm hoạt động “Govern, Map, Measure, Manage” trong khung NIST:

Một là, ở tầng “Govern”, làm rõ những giá trị cốt lõi và trách nhiệm lãnh đạo.

Hai là, ở tầng “Map”, yêu cầu các cơ quan và doanh nghiệp lập bản đồ các hệ thống AI rủi ro cao, phân loại chúng.

Ba là, ở tầng “Measure”, đưa vào yêu cầu đánh giá tác động đạo đức và rủi ro đối với những hệ thống đó.

Bốn là, ở tầng “Manage”, gắn các nguyên tắc với quy trình giám sát, khắc phục, cải tiến liên tục.

Trong các khóa đào tạo về đạo đức AI, có thể nhận thấy một điều rất rõ: Nếu chỉ dừng ở việc trình bày các nguyên tắc, học viên thường bối rối, nhưng nếu có trong tay một bộ câu hỏi đánh giá rủi ro gắn với từng nhóm giá trị, họ lập tức hiểu mình cần thay đổi điều gì trong quy trình hiện tại.

2.quan-tri-rui-ro.png

Phân vai nhà phát triển và bên triển khai

Một điểm rất đáng chú ý trong xu hướng lập pháp mới trên thế giới, như đạo luật AI của bang Colorado (Hoa Kỳ) là sự phân định rõ ràng giữa hai nhóm chủ thể: Nhà phát triển hệ thống AI và bên triển khai hệ thống đó trong bối cảnh cụ thể.

Dự thảo Khung Đạo đức AI của Việt Nam đã đi một bước quan trọng khi chia thành 4 nhóm chủ thể khác nhau. Vấn đề là làm sao để việc phân vai này không chỉ dừng lại trên giấy, mà trở thành “bước đệm” cho những nghĩa vụ pháp lý sau này trong Luật AI và các nghị định.

Điều đó có thể bắt đầu từ những yêu cầu rất cụ thể:

Thứ nhất, nhà phát triển cần cung cấp những gì cho bên triển khai, từ báo cáo đánh giá rủi ro, tài liệu giải thích, cho đến các thông số vận hành và giới hạn sử dụng.

Thứ hai, bên triển khai phải làm gì thêm trong bối cảnh của mình, ví dụ như đánh giá rủi ro với nhóm người bị tác động, truyền thông cho người dùng, xây dựng quy trình xử lý khi có sự cố.

Thứ ba, khuyến khích mô hình “hợp đồng đạo đức AI” giữa nhà phát triển và bên triển khai trong những hệ thống rủi ro cao, để hai bên cùng chia sẻ trách nhiệm và thông tin.

Nếu phân vai rõ ngay từ giai đoạn khung đạo đức, sẽ tránh được hai cái bẫy: Hoặc đẩy hết trách nhiệm cho nhà phát triển, hoặc buộc bên triển khai gánh những rủi ro mà họ không có đủ thông tin và năng lực để kiểm soát.

Deepfake, gắn nhãn và bài toán niềm tin số

Một nội dung rất đáng hoan nghênh trong dự thảo Khung là phần đề cập riêng đến minh bạch và gắn nhãn nội dung do AI tạo ra, cùng tham chiếu đến watermark, metadata, chuẩn C2PA. Trong kỷ nguyên mà deepfake có thể làm giả từ gương mặt lãnh đạo cho đến giọng nói người thân, đây là tuyến phòng thủ đầu tiên để bảo vệ niềm tin xã hội.

Tuy nhiên, yêu cầu gắn nhãn nếu chỉ nằm trên văn bản sẽ khó tạo ra thay đổi thực chất. Nó cần đi cùng một hệ sinh thái công cụ và cơ chế thực thi. Việt Nam có thể tận dụng lợi thế chính phủ số để đi đầu, cơ quan nhà nước, báo chí chủ lực, doanh nghiệp nền tảng trong nước hoàn toàn có thể trở thành những người “làm mẫu” trong việc gắn nhãn nội dung AI.

Trong lộ trình 2026 đến 2030, có thể mô tả rõ hơn các bước như:

Bước 1: Xây dựng bộ tiêu chuẩn kỹ thuật quốc gia về dấu nhận biết (watermark) và siêu dữ liệu (metadata) cho nội dung AI.

Bước 2: Khuyến khích tích hợp chuẩn C2PA trong hệ sinh thái báo chí và truyền thông số.

Bước 3: Thí điểm một số dự án phát hiện và cảnh báo deepfake trong các lĩnh vực nhạy cảm như chính trị, tài chính, bầu cử.

Trong kỷ nguyên AI, nếu mất niềm tin số, sẽ đánh mất nền tảng để xã hội chấp nhận những đổi mới công nghệ tiếp theo.

3.gan-nhan-thoi-chua-du.png

Xuất phát từ SWOT của chính Việt Nam

Bản Đề án đi kèm dự thảo Khung Đạo đức AI đã có phân tích SWOT khá đầy đủ: Từ điểm mạnh là quyết tâm chính trị, nền tảng chính phủ số, cho đến điểm yếu là thiếu nhân lực chuyên sâu, nhận thức đạo đức AI còn thấp, chênh lệch giữa trung ương và địa phương. Vấn đề là làm sao để SWOT này không chỉ nằm trên giấy, mà phản chiếu vào cách triển khai khung trong thực tế.

Có ba hướng đi có thể cân nhắc:

Thứ nhất là, coi khu vực nhà nước là “người thực hành mẫu”, thí điểm áp dụng Khung Đạo đức AI trong một số dự án trọng điểm về chính phủ số, y tế, giáo dục, an sinh xã hội, trước khi yêu cầu doanh nghiệp (DN) tuân thủ.

Thứ hai là, phát triển các bộ công cụ rút gọn dựa trên Khung cho từng nhóm đối tượng, ví dụ bộ câu hỏi một trang cho cấp sở, bộ checklist ngắn cho DN vừa và nhỏ, tránh tình trạng khung chỉ phù hợp với các tập đoàn lớn.

Thứ ba là, đưa “nâng cao năng lực đạo đức AI” thành một trụ cột độc lập trong lộ trình, với mục tiêu định lượng về số người được đào tạo theo vai trò: lãnh đạo, nhà phát triển, cán bộ vận hành, nhà báo, giáo viên.

Khi đạo đức AI được gắn với đào tạo, với công cụ cụ thể và với trách nhiệm nêu gương của khu vực công, mới có cơ hội đưa Khung Đạo đức AI ra khỏi tài liệu để bước vào đời sống.

Ít nguyên tắc hơn, hành động nhiều hơn

Tóm lại, Khung Đạo đức AI Quốc gia là một bước đi rất quan trọng, thể hiện quyết tâm của Việt Nam trong việc phát triển AI một cách an toàn và có trách nhiệm. Nhưng để Khung thực sự sống được, cần ba điều chỉnh lớn:

Một là, tổ chức lại 12 nội dung hiện có thành 5 đến 6 cụm giá trị cốt lõi, kèm theo một tiểu mục giải thích cơ sở lý luận của cấu trúc này, để khung dễ nhớ, dễ dạy, dễ áp dụng.

Hai là, gắn chặt khung đạo đức với quản trị rủi ro, phân vai rõ ràng giữa nhà phát triển và bên triển khai, coi khu vực nhà nước là “người thực hành mẫu” và phát triển các bộ công cụ rút gọn cho địa phương và DN nhỏ.

Ba là, nhấn mạnh đặc biệt hai trục nội dung: quản lý deepfake và gắn nhãn nội dung AI với hệ sinh thái công cụ đi kèm, cùng với chương trình nâng cao năng lực đạo đức AI có chỉ số đo lường cụ thể.

Nếu làm được như vậy, Khung Đạo đức AI của Việt Nam sẽ không chỉ là một bản tuyên ngôn đẹp trên giấy, mà trở thành một kim chỉ nam thực sự, giúp chúng ta tiến nhanh cùng AI nhưng không đánh mất sự thận trọng cần thiết./.

Đào Trung Thành