Đóng

OpenAI công bố báo cáo bất ngờ về người dùng ChatGPT

  • Mộc Miên
(DS&PL) -

Khoảng 0,07% người dùng ChatGPT hằng tuần - tương đương 560.000 trong tổng số 800 triệu người dùng - có biểu hiện rối loạn tâm thần hoặc hưng cảm.

The Guardian dẫn báo cáo do OpenAI công bố ngày 27/10 cho biết, mỗi tuần có hơn 1 triệu người dùng ChatGPT gửi các tin nhắn có dấu hiệu rõ ràng cho thấy khả năng có kế hoạch hoặc ý định tự kết liễu.

Đây là một trong những tuyên bố trực tiếp nhất từ OpenAI về mức độ mà trí tuệ nhân tạo (AI) có thể làm trầm trọng thêm các vấn đề sức khỏe tâm thần.

Theo báo cáo, khoảng 0,07% người dùng hoạt động hằng tuần - tương đương 560.000 trong tổng số 800 triệu người dùng - có biểu hiện rối loạn tâm thần hoặc hưng cảm. Tuy nhiên, OpenAI thừa nhận rằng những dạng tương tác này “rất khó phát hiện và đo lường chính xác”.

Báo cáo được công bố trong bối cảnh công ty đang đối mặt vụ kiện của gia đình một thiếu niên tự kết liễu sau thời gian dài trò chuyện với ChatGPT, đồng thời chịu điều tra từ Ủy ban Thương mại Liên bang Mỹ (FTC) về tác động của chatbot đối với trẻ.

Ảnh minh họa

OpenAI khẳng định bản cập nhật mô hình GPT-5 mới nhất đã giảm đáng kể hành vi không mong muốn và tăng cường an toàn cho người dùng. Theo đánh giá nội bộ, GPT-5 đạt 91% mức tuân thủ tiêu chuẩn hành vi mong muốn, so với 77% ở phiên bản trước. Mô hình cũng được tích hợp tính năng kết nối người dùng đến đường dây nóng hỗ trợ khủng hoảng và nhắc nhở nghỉ ngơi khi trò chuyện quá lâu.

Để cải thiện chất lượng phản hồi, OpenAI đã huy động 170 bác sĩ từ Mạng lưới Bác sĩ Toàn cầu, bao gồm các chuyên gia tâm thần và tâm lý học, tham gia đánh giá mức độ an toàn của phản hồi và hỗ trợ viết nội dung liên quan đến sức khỏe tâm thần. Trong nghiên cứu, nhóm chuyên gia này đã xem xét hơn 1.800 phản hồi của mô hình trong các tình huống nghiêm trọng, so sánh giữa GPT-5 và các phiên bản trước đó.

OpenAI định nghĩa “hành vi mong muốn” là khi nhóm chuyên gia thống nhất rằng phản hồi của mô hình phù hợp với tình huống cụ thể.

Trong nhiều năm qua, các nhà nghiên cứu AI và chuyên gia y tế công cộng đã cảnh báo về hiện tượng “tính nịnh hót” -  khi chatbot có xu hướng đồng tình hoặc củng cố ảo tưởng của người dùng, bất kể chúng có thể gây hại. Giới chuyên môn cũng lo ngại việc dùng chatbot như công cụ hỗ trợ tâm lý có thể khiến những người dễ bị tổn thương gặp nguy hiểm.

Trong báo cáo, OpenAI nhấn mạnh họ không cho rằng ChatGPT là nguyên nhân trực tiếp của các khủng hoảng tâm lý, mà chỉ phản ánh “tình trạng phổ biến trong xã hội”.

Tin nổi bật