Đóng

Bác sĩ cảnh báo: Đừng để ChatGPT thành “thầy thuốc online”

  • Mộc Trà
(DS&PL) -

Người dân mang “đơn thuốc AI” đến nhà thuốc gây tranh cãi dữ dội. Chuyên gia cảnh báo, kê đơn theo ChatGPT có thể rước họa vào thân.

Những ngày qua, mạng xã hội lan truyền hình ảnh người dân mang điện thoại đến nhà thuốc, yêu cầu bán đúng danh sách thuốc trị ho, sổ mũi… do “ChatGPT tư vấn”. Chỉ ít giờ sau khi xuất hiện, bức ảnh đã khiến cộng đồng mạng chia phe tranh cãi gay gắt.

Một bên cho rằng, nếu AI có thể “kê đơn” thì chẳng khác nào “bác sĩ trong túi áo”, hỏi đâu đáp đó, không cần mất công đi khám. Nhưng nhiều ý kiến lại mạnh mẽ phản đối, cho rằng đây là hành vi “đùa với sức khỏe”, tiềm ẩn vô số rủi ro.

Đơn thuốc đang lan truyền trên mạng xã hội gây xôn xao dư luận

Bác sĩ Đoàn Dư Mạnh, thành viên Hội Bệnh mạch máu Việt Nam, khẳng định trong ảnh lan truyền, chỉ cần nhập vài triệu chứng đơn giản như ho, nghẹt mũi… ChatGPT đã liệt kê một loạt thuốc, trong đó có cả corticoid, loại thuốc kháng viêm cực mạnh và bắt buộc phải có chỉ định bác sĩ.

“Dùng thuốc có thể giảm triệu chứng tạm thời, nhưng nếu nguyên nhân do vi khuẩn hay virus khác mà không được chẩn đoán chính xác, bệnh nhân có thể diễn tiến sang viêm phổi, viêm đường hô hấp nặng”, bác sĩ Mạnh cảnh báo.

Điều nguy hiểm nhất, theo ông, là AI không hề biết tình trạng nền của mỗi người, có suy gan, suy thận, tiểu đường, đang mang thai hay không. Những thuốc chống viêm, kháng histamin mạnh nếu dùng sai hoàn toàn có thể gây suy đa tạng, thậm chí tử vong.

Bác sĩ Mạnh nhấn mạnh: “Không một bác sĩ nào kê đơn khi chưa biết tuổi, cân nặng, bệnh sử của bệnh nhân. AI chỉ dựa vào vài câu mô tả, không thể đảm bảo an toàn".

Ngoài nguy cơ sức khỏe, vị bác sĩ cũng cho biết: hiệu thuốc bán thuốc kê đơn theo “lời khuyên AI” là vi phạm pháp luật. Theo Bộ Y tế, nhóm kháng sinh, corticoid, thuốc tim mạch… chỉ được phép bán khi có toa hợp lệ của bác sĩ.

Đây không phải lần đầu người dùng “sa bẫy” AI. Đầu tháng 8 vừa qua, một người đàn ông 60 tuổi tại Mỹ suýt mất mạng vì nghe theo lời gợi ý dinh dưỡng từ ChatGPT.

Người này muốn cắt giảm muối ăn và hỏi AI về chất thay thế. ChatGPT đã gợi ý natri bromua, một hóa chất từng có mặt trong thuốc trừ sâu, chất tẩy rửa hồ bơi và thuốc chống co giật cho… chó.

Suốt 3 tháng, ông vô tư dùng chất này thay muối ăn, dẫn đến ngộ độc bromide: lú lẫn, ảo giác, hoang tưởng, nói líu lưỡi và có nguy cơ hôn mê. Dù không có tiền sử bệnh tâm thần, bệnh nhân vẫn phải nhập viện điều trị nội trú 3 tuần mới qua cơn nguy kịch.

Các bác sĩ điều trị cho rằng đây là hồi chuông cảnh báo về việc lạm dụng AI trong chăm sóc sức khỏe.

Tin nổi bật