Phát triển “AI có trách nhiệm” từ kinh nghiệm quốc tế
Trong giai đoạn từ 2019-2024, các tổ chức quốc tế, các quốc gia và khu vực đã có những động thái tích cực, khẩn trương trong việc xây dựng thể chế, chính sách và các nguyên tắc để các đơn vị phát triển AI nhưng vẫn còn hạn chế rủi ro hay các tác động tiêu cực do AI mang lại.
Hiện nhiều quốc gia đã có bộ nguyên tắc chung như: EU, UNESCO, Trung Quốc, Mỹ, Nhật Bản, bên cạnh đó còn có bộ nguyên tắc ở từng lĩnh vực như: giáo dục, y tế... Những nội dung cốt lõi về bộ nguyên tắc đảm bảo tính tự chủ và giám sát con người, an toàn, quyền riêng tư và quản trị dữ liệu, tính minh bạch, đa dạng và bao trùm, không phân biệt đối xử và công bằng, cùng tính trách nhiệm giải trình.
Điểm chung của các bộ nguyên tắc AI có trách nhiệm là các nguyên tắc nền tảng: vì nhân sinh, vì lợi ích của con người; tôn trọng tính tự chủ và sự giám sát của con người; bền vững và an toàn; bảo đảm quyền riêng tư và quản trị dữ liệu; minh bạch và có thể giải thích được; đa dạng, bao trùm; bình đẳng, không phân biệt đối xử; trách nhiệm và trách nhiệm giải trình… Đó là những kinh nghiệm có giá trị tham khảo đối với Việt Nam, tuy nhiên khi áp dụng cần xem xét đến những đặc thù kinh tế - xã hội để có quy định phù hợp.
Năm 2021, 193 quốc gia thành viên UNESCO đã thông qua Khuyến nghị về đạo đức AI. Đồng thời xây dựng bộ công cụ thực hành Khuyến nghị đạo đức AI đánh giá mức độ sẵn sàng của các quốc gia - RAM (Readiness Assessment Methodology) bao gồm 5 lĩnh vực chứa chỉ số khác nhau: pháp lý, xã hội, khoa học giáo dục, kinh tế và bao trùm công nghệ. Tới nay, đã có 50 quốc gia áp dụng bộ công cụ, phân tích liên tục tính đa dạng nhằm đưa ra hoạch định riêng cho từng quốc gia, dự đoán cụ thể tác động AI đến môi trường, văn hoá, những tác động hữu hình bởi AI.
Các chuyên gia cho rằng, để phát triển AI có trách nhiệm, cần hệ thống thể chế, chính sách, nguyên tắc điều chỉnh, với sự kết hợp chặt chẽ giữa các quy định pháp luật “cứng” mang tính ràng buộc với các quy tắc "mềm" như đạo đức, hướng dẫn, khuyến nghị. Pháp luật thường đi sau sự phát triển công nghệ, đối với các công nghệ mới nổi, cách tiếp cận kết hợp giữa luật cứng và luật mềm là sự lựa chọn phù hợp nhất.
PGS.TS Nguyễn Thị Quế Anh - Hiệu trưởng Trường Đại học Luật, Đại học Quốc gia Hà Nội Hà Nội chia sẻ tại Hội thảo.
Trong khuôn khổ nhiệm vụ xây dựng bộ nguyên tắc và một số hướng dẫn phát triển AI có trách nhiệm ở Việt Nam, PGS.TS Nguyễn Thị Quế Anh - Hiệu trưởng Trường Đại học Luật, Đại học Quốc gia Hà Nội cho biết, AI ngày càng phát triển nhanh chóng và tác động tới mọi mặt kinh tế, giáo dục, xã hội của các quốc gia. Tuy nhiên, bên cạnh những lợi ích to lớn, sự phát triển của AI đang làm dấy lên những quan ngại về các rủi ro tiềm ẩn như: vi phạm chuẩn mực đạo đức và pháp lý; các thuật toán có thể gây ra sự thiên vị, phân biệt đối xử, bất bình đẳng; xâm phạm quyền riêng tư và dữ liệu cá nhân…
TS Jonathan Wallace Baker - Trưởng đại diện UNESCO tại Việt Nam mong muốn có khung pháp lý hiệu quả cho lĩnh vực trí tuệ nhân tạo.
Theo TS Jonathan Wallace Baker - Trưởng đại diện UNESCO tại Việt Nam, không thể phủ nhận vai trò của AI nhưng làm sao để có khung pháp lý hiệu quả cho lĩnh vực này. Năm 2021, UNESCO đã ban hành “Khuyến nghị về các khía cạnh đạo đức của AI", nhằm hướng dẫn các quốc gia giải quyết một cách có trách nhiệm những tác động của AI đối với con người, xã hội, môi trường và hệ sinh thái. Các nguyên tắc đã có từ nhiều năm nhưng cần đi vào chi tiết và có các hành động cụ thể.
Bảo đảm các nguyên tắc nền tảng
Tại Việt Nam, năm 2021, theo Quyết định 127/QĐ-TTg ngày 20/01/2021 ban hành Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng AI đến năm 2030 do Thủ tướng Chính phủ ban hành đã nêu rõ định hướng: “Phát triển và ứng dụng AI lấy con người và doanh nghiệp làm trung tâm, tránh lạm dụng công nghệ và xâm phạm quyền, lợi ích hợp pháp của tổ chức cá nhân”. Đây là định hướng quan trọng và xuyên suốt phải bảo đảm trong việc hoàn thiện, xây dựng hệ thống văn bản quy phạm pháp luật và hành lang pháp lý liên quan đến AI.
Trên cơ sở nghiên cứu kinh nghiệm quốc tế, có xem xét đến các đặc thù Việt Nam, ngày 11/06/2024, Bộ Khoa học và Công nghệ (KH&CN) đã ban hành Quyết định số 1290/QĐ-BKHCN hướng dẫn một số nguyên tắc về nghiên cứu, phát triển các hệ thống AI có trách nhiệm (Hướng dẫn AI R&D).
Ông Trần Anh Tú - Phó Vụ trưởng Vụ Công nghệ cao, Bộ Khoa học và Công nghệ phát biểu tại Hội thảo.
Theo ông Trần Anh Tú - Phó Vụ trưởng Vụ Công nghệ cao, Bộ KH&CN, cần thúc đẩy áp dụng, thực hành các nguyên tắc này vào thực tiễn. Tiếp tục nghiên cứu kinh nghiệm các nước, khuyến nghị của các tổ chức quốc tế về AI; hướng dẫn để phát triển AI có trách nhiệm trong các ngành/lĩnh vực, dựa trên đặc thù của từng lĩnh vực như y tế, giáo dục, nông nghiệp…
Điểm chung của các bộ nguyên tắc AI có trách nhiệm trên thế giới là các nguyên tắc nền tảng: vị nhân sinh, vì lợi ích của con người; tôn trọng tính tự chủ và sự giám sát của con người; bền vững và an toàn; bảo đảm quyền riêng tư và quản trị dữ liệu; minh bạch và có thể giải thích được; đa dạng, bao trùm; bình đẳng, không phân biệt đối xử; trách nhiệm và trách nhiệm giải trình… Đó là những kinh nghiệm có giá trị tham khảo đối với Việt Nam, tuy nhiên khi áp dụng cần xem xét đến những đặc thù kinh tế - xã hội của Việt Nam để có quy định phù hợp.
Hiện Bộ KH&CN đang làm việc với UNESCO để thử nghiệm bộ công cụ RAM tại Việt Nam. Đồng thời, tiếp tục hợp tác với Australia trong nghiên cứu, đề xuất các nguyên tắc phát triển AI có trách nhiệm.
Ngoài ra, Bộ KH&CN cũng tăng cường nghiên cứu, xây dựng hệ thống tiêu chuẩn, quy chuẩn kỹ thuật quốc gia để phục vụ phát triển AI tại Việt Nam; chủ động xác định các vấn đề khoa học, thực tiễn liên quan đến AI cần giải quyết và ưu tiên nguồn lực từ các Chương trình KH&CN trọng điểm cấp quốc gia giai đoạn đến năm 2030 để triển khai các nhiệm vụ, giải pháp cụ thể về AI…
PT