Một người đàn ông 60 tuổi tại Mỹ đã phải nhập viện sau khi tìm kiếm lời khuyên từ ChatGPT về cách loại bỏ muối khỏi chế độ ăn uống.
Sự việc một lần nữa làm dấy lên lo ngại về những rủi ro tiềm ẩn khi con người ngày càng tương tác nhiều hơn với trí tuệ nhân tạo (AI), đặc biệt trong các vấn đề liên quan đến sức khỏe. Nếu trước đây, cảnh báo chủ yếu tập trung vào tác động đối với sức khỏe tâm thần, thì nay đã xuất hiện những trường hợp ảnh hưởng trực tiếp đến thể chất, thậm chí đe dọa tính mạng.
Các chuyên gia từ lâu đã khuyến cáo không nên tự ý tra cứu triệu chứng y khoa trên Google, bởi chỉ bác sĩ - người nắm rõ bệnh sử và trực tiếp thăm khám - mới có thể đưa ra chẩn đoán chính xác. Một báo cáo mới công bố trên Tạp chí của Học viện Bác sĩ Mỹ cho thấy, điều này cũng đúng với các chatbot như ChatGPT.
Bệnh nhân trong báo cáo mắc chứng ngộ độc bromide (bromism) sau khi làm theo hướng dẫn của ChatGPT. Bromism, phổ biến vào đầu thế kỷ 20 nhưng hiện hiếm gặp, thường bắt nguồn từ việc sử dụng muối bromide - từng được dùng trong một số loại thuốc không kê đơn để điều trị mất ngủ, rối loạn lo âu và cuồng loạn. Dùng quá liều bromide có thể gây ra triệu chứng thần kinh và da liễu.
Ảnh minh họa
Người đàn ông này vốn không có tiền sử bệnh tâm thần hay bệnh lý nghiêm trọng. Tuy nhiên, chỉ trong 24 giờ đầu nhập viện, ông xuất hiện các biểu hiện hoang tưởng gia tăng, ảo giác thị giác và thính giác, đồng thời luôn khát nước nhưng tỏ ra lo ngại về nguồn nước được cung cấp. Sau khi được điều trị bằng dịch truyền và chất điện giải, ông ổn định về y tế và được chuyển sang khoa tâm thần.
Khi hồi phục, bệnh nhân cho biết đã tự tiến hành “thí nghiệm dinh dưỡng” để loại bỏ clorua khỏi khẩu phần ăn, lấy cảm hứng từ thời gian học đại học. Trong ba tháng, ông thay thế muối ăn (natri clorua) bằng natri bromide mua trên mạng, sau khi ChatGPT gợi ý rằng bromide có thể thay thế clorua - dù chất này thường được dùng cho các mục đích công nghiệp như làm sạch.
Các bác sĩ cho biết ông xuất hiện thêm các triệu chứng như mụn trứng cá mới trên mặt và u máu anh đào, dấu hiệu đặc trưng của bromism. Bệnh nhân phải nằm viện suốt ba tuần trước khi đủ sức khỏe để xuất viện.
Báo cáo nhấn mạnh: “ChatGPT và các hệ thống AI tương tự có thể tạo ra thông tin khoa học không chính xác, thiếu khả năng phân tích phản biện và vô tình góp phần lan truyền sai lệch”.
OpenAI, nhà phát triển ChatGPT, cũng thừa nhận trong Điều khoản sử dụng rằng kết quả từ chatbot “có thể không phải lúc nào cũng chính xác” và không nên được coi là nguồn thông tin duy nhất hoặc thay thế cho lời khuyên chuyên môn. Công ty nêu rõ: “Dịch vụ của chúng tôi không nhằm mục đích chẩn đoán hay điều trị bất kỳ tình trạng sức khỏe nào”.