Rủi ro tiềm ẩn khi sử dụng AI trong trị liệu tâm lý
Khi AI được ứng dụng rộng rãi trong tư vấn tâm lý, các nhà nghiên cứu cảnh báo nhiều chatbot vẫn thiếu cơ chế bảo đảm an toàn và trách nhiệm giải trình.

Nghiên cứu do các nhà khoa học máy tính tại Đại học Brown (Mỹ) chủ trì, phối hợp với các chuyên gia sức khỏe tâm thần, chỉ ra rằng các chatbot dựa trên các mô hình ngôn ngữ lớn có thể mắc nhiều vi phạm đạo đức.
Những vi phạm này bao gồm: Xử lý không phù hợp các tình huống khủng hoảng; đưa ra phản hồi gây hiểu lầm làm củng cố những nhận thức tiêu cực và có hại về bản thân; tạo ra “ảo giác về sự đồng cảm” nhưng thiếu sự thấu hiểu thực chất.
Cách các câu lệnh (prompt) định hình hành vi của chatbot
Zainab Iftikhar, nghiên cứu sinh tiến sĩ khoa học máy tính tại Đại học Brown, đã phân tích cách thiết kế prompt ảnh hưởng đến phản hồi của các chatbot trong bối cảnh sức khỏe tâm thần.
Nghiên cứu nhằm đánh giá liệu những chiến lược prompt nhất định có thể giúp các mô hình ngôn ngữ lớn tuân thủ tốt hơn các nguyên tắc đạo đức trong thực hành lâm sàng.
Kết quả cho thấy, người dùng thường yêu cầu mô hình phản hồi theo các khuôn khổ trị liệu như liệu pháp hành vi nhận thức (Cognitive Behavioral Therapy - CBT) hoặc liệu pháp hành vi biện chứng (Dialectical Behavior Therapy - DBT).
Dù không thực hiện trị liệu thực sự, các mô hình vẫn tạo ra phản hồi dựa trên các mẫu ngôn ngữ đã học, phù hợp với nội dung của prompt.
Việc chia sẻ và thử nghiệm các prompt dạng này ngày càng phổ biến trên mạng xã hội và diễn đàn trực tuyến, đồng thời được áp dụng rộng rãi trong nhiều chatbot chăm sóc sức khỏe tâm thần vốn được điều chỉnh từ các mô hình ngôn ngữ lớn đa mục đích.
Vì vậy, hiểu rõ tác động của thiết kế prompt trong lĩnh vực này có ý nghĩa then chốt đối với chất lượng và tính an toàn của phản hồi.
Đạo đức của chatbot trong thực tiễn
Nhóm nghiên cứu của Zainab Iftikhar đã theo dõi bảy tư vấn viên được đào tạo về CBT khi tương tác với các mô hình ngôn ngữ lớn (GPT, Claude, Llama) - được thiết kế để phản hồi theo khung CBT.
Sau đó, nhóm nghiên cứu chọn lọc một số đoạn hội thoại mô phỏng các tình huống tư vấn thực tế và chuyển cho ba nhà tâm lý học lâm sàng đánh giá.
Kết quả xác định được 15 rủi ro đạo đức, quy về năm nhóm chính: (i) thiếu xem xét bối cảnh cá nhân; (ii) hợp tác trị liệu yếu, đôi khi củng cố niềm tin sai lệch; (iii) biểu hiện đồng cảm mang tính hình thức; (iv) thiên lệch và đối xử không công bằng; và (v) thiếu an toàn, xử lý khủng hoảng chưa đầy đủ.
Nghiên cứu nhấn mạnh khác biệt cốt lõi nằm ở trách nhiệm giải trình: Trong khi nhà trị liệu con người chịu sự giám sát nghề nghiệp, các chatbot dựa trên mô hình ngôn ngữ lớn hiện vẫn thiếu khung pháp lý và cơ chế kiểm soát rõ ràng khi vi phạm chuẩn mực đạo đức.
Tương lai của tư vấn sức khỏe tâm thần bằng AI
Theo Iftikhar, những phát hiện này không đồng nghĩa với việc AI không nên có vai trò trong điều trị sức khỏe tâm thần.
AI có thể giảm bớt các rào cản trong tiếp cận dịch vụ chăm sóc, đặc biệt là chi phí điều trị và tình trạng thiếu hụt chuyên gia được đào tạo bài bản.
Tuy nhiên, kết quả nghiên cứu nhấn mạnh sự cần thiết của việc triển khai AI một cách thận trọng, đi kèm với các cơ chế quản lý, giám sát và điều tiết phù hợp.
Tăng cường đánh giá và các biện pháp bảo vệ
Theo GS. Ellie Pavlick (Đại học Brown), cần tăng cường các đánh giá khoa học nghiêm ngặt đối với AI trong lĩnh vực sức khỏe tâm thần.
Việc phát triển và triển khai AI hiện nay diễn ra nhanh hơn nhiều so với khả năng hiểu và kiểm soát các rủi ro của hệ thống.
Phần lớn các nghiên cứu vẫn dựa vào những thước đo tự động, trong khi nghiên cứu này cho thấy chỉ khi có sự tham gia của chuyên gia lâm sàng và đánh giá dài hạn mới có thể nhận diện đầy đủ các nguy cơ./.
