Anh siết chặt quản lý để đảm bảo an toàn cho trẻ em trong kỷ nguyên AI
Trước sự gia tăng đáng báo động của các hình ảnh lạm dụng tình dục trẻ em trên Internet do trí tuệ nhân tạo tạo ra, Chính phủ Anh đang thúc đẩy các quy định mới buộc các mô hình AI tích hợp biện pháp an toàn ngay từ khâu thiết kế, đồng thời cho phép các tổ chức bảo vệ trẻ em tham gia kiểm thử nhằm bảo vệ trẻ em an toàn trong môi trường số.

IWF cảnh báo các nội dung lạm dụng trẻ em do AI tạo ra tăng vọt
Hình ảnh lạm dụng tình dục trẻ em do các công cụ trí tuệ nhân tạo (AI) tạo ra đang ngày càng phổ biến trên mạng mở và đạt đến "điểm bùng phát".
Dữ liệu từ Tổ chức giám sát Internet (IWF) công bố ngày 12/11 cho thấy số báo cáo về nội dung lạm dụng tình dục trẻ em (CSAM) được tạo ra bằng AI đã tăng hơn gấp đôi trong năm qua, từ con số 199 báo cáo vào năm 2024 lên 426 vào năm 2025.
Giám đốc điều hành tạm quyền của IWF, Derek Ray-Hill, cho biết mức độ tinh vi trong những hình ảnh cho thấy các công cụ AI được sử dụng đã được đào tạo dựa trên hình ảnh và video của các nạn nhân thực sự.
Nghiên cứu “Xu hướng CSAM do AI tạo ra” của IWF cũng cho thấy mức độ nghiêm trọng của các nội dung báo cáo cũng đang tăng. Hình ảnh thuộc danh mục "Hạng A" - mức độ nghiêm trọng nhất, bao gồm các mô tả về cưỡng hiếp, tra tấn tình dục và hành vi thú tính - đã tăng từ 2.600 lên gần 3.100, chiếm 56% tổng số nội dung AI bất hợp pháp, so con số 41% của ngoái.
Hầu hết các video liên quan đến bé gái, chiếm 94% số hình ảnh bất hợp pháp được ghi nhận..
Ngoài những hình ảnh do AI tạo ra có sử dụng hình ảnh thật của các nạn nhân bị lạm dụng ngoài đời thực, các loại tài liệu mà IWF phát hiện bao gồm các video deepfake trong đó nội dung khiêu dâm người lớn đã bị chỉnh sửa để giống với CSAM.
Hơn một nửa nội dung do AI tạo ra bị IWF gắn cờ trong 6 tháng qua được lưu trữ trên các máy chủ ở Nga và Hoa Kỳ, Nhật Bản và Hà Lan cũng lưu trữ một lượng đáng kể. Địa chỉ của các trang web chứa hình ảnh được tải lên danh sách URL của IWF, danh sách này được chia sẻ với ngành công nghệ để có thể chặn và khiến chúng không thể truy cập được.
Vương quốc Anh thúc đẩy luật mới để ngăn chặn CSAM do AI tạo ra
Sự gia tăng của nội dung lạm dụng trẻ em do AI tạo ra đang khiến các cơ quan thực thi pháp luật trên toàn thế giới lo ngại.
Khi các công cụ AI tạo sinh trở nên dễ tiếp cận và tinh vi hơn, chất lượng hình ảnh và video ngày càng được cải thiện, khiến việc phát hiện bằng các kỹ thuật truyền thống trở nên khó khăn hơn bao giờ hết.
Nếu như trước đây các video thường ngắn và có lỗi, thì nay IWF ghi nhận những sản phẩm dài hơn, chân thực hơn với các cảnh phức tạp và bối cảnh đa dạng, chúng thường được sử dụng để quấy rối và tống tiền nạn nhân.
Vào tháng 2, Vương quốc Anh trở thành quốc gia đầu tiên hình sự hóa việc tạo và phân phối các công cụ AI được thiết kế để tạo nội dung lạm dụng trẻ em. Luật này cấm sở hữu các mô hình AI được tối ưu hóa để sản xuất nội dung như vậy, cũng như các tài liệu hướng dẫn cách thực hiện.
Mới đây nhất, Vương quốc Anh đang xây dựng một đạo luật mới nhằm ngăn chặn các sản phẩm deepfake mang tính chất lạm dụng tình dục. Dự luật Tội phạm và Cảnh sát (Crime and Policing Bill)sẽ yêu cầu các mô hình AI tích hợp cơ chế bảo vệ ngay từ giai đoạn thiết kế, nhằm đảm bảo công nghệ không bị lợi dụng để tạo ra các nội dung CSAM.

IWF đánh giá cao động thái của Chính phủ Anh, coi đây là “bước đi quan trọng” hướng tới đảm bảo an toàn ngay từ khi phát triển các sản phẩm AI.
Bà Kerry Smith, Giám đốc điều hành IWF, nhận định: “Các công cụ AI cho phép kẻ xấu tái tạo và khai thác hình ảnh nạn nhân chỉ với vài thao tác, tạo ra vô số nội dung lạm dụng tình dục trẻ em có độ chân thực cao".
Bà cho biết cần tích hợp các biện pháp đảm bảo an toàn ngay từ khâu thiết kế. Đạo luật mới có thể đóng vai trò then chốt trong việc đảm bảo các hệ thống AI an toàn trước khi được phát triển và thương mại hoá.
Theo Dự luật, Bộ Công nghệ và Bộ Nội vụ Anh có thể chỉ định các “đơn vị kiểm thử được ủy quyền”, bao gồm nhà phát triển AI và các tổ chức bảo vệ trẻ em như IWF để kiểm thử khả năng tạo hình ảnh lạm dụng trẻ em của các công cụ AI. Các đơn vị này cũng được trao quyền để giám sát các mô hình AI nhằm xác định và ngăn chặn nguy cơ bị khai thác để bóc lột và lạm dụng trẻ em.
Hiện nay, các nhà phát triển gặp khó khăn trong việc kiểm thử mức độ an toàn đối với các mô hình AI vì tính chất bất hợp pháp của các hình ảnh liên quan, khiến chỉ có thể xử lý sau khi nội dung đã bị tạo ra và phát tán.
Năm ngoái, Hugh Nelson (27 tuổi), Bolton, Vương quốc Anh đã bị tuyên án 18 năm tù với 16 tội danh lạm dụng hình ảnh trẻ em bằng AI. Đây cũng là tiền lệ pháp lý đầu tiên tại Anh về việc xét xử tội phạm sử dụng AI để tạo ra các nội dung CSAM.
Trong khuôn khổ Dự luật, Chính phủ Anh cũng sẽ thành lập nhóm chuyên gia về AI và an toàn trẻ em nhằm xây dựng các yêu cầu kỹ thuật để bảo vệ dữ liệu nhạy cảm và ngăn chặn rò rỉ nội dung bất hợp pháp.
Bộ trưởng Công nghệ Anh Liz Kendall nhấn mạnh: “Những quy định mới sẽ đảm bảo các hệ thống AI an toàn từ gốc, hạn chế các lỗ hổng có thể gây rủi ro cho trẻ em. Việc trao quyền cho các tổ chức uy tín kiểm thử mô hình giúp bảo đảm yếu tố an toàn được tích hợp ngay từ khâu thiết kế, thay vì bổ sung sau khi sản phẩm đã ra mắt”.
Bà Jess Phillips, Thứ trưởng Bộ Nội vụ Anh phụ trách phòng, chống mua bán người, chống bạo lực gia đình và bảo vệ phụ nữ, cho biết các biện pháp mới sẽ ngăn chặn việc tội phạm sử dụng các công cụ AI hợp pháp để tạo ra những nội dung “ghê tởm”./.
