โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

ธุรกิจ-เศรษฐกิจ

ชายคนหนึ่งต้องเข้าโรงพยาบาล เพราะคำตอบจาก ChatGPT | ผู้ใช้ หรือ AI ใครผิด ?

BT Beartai

อัพเดต 14 ส.ค. 2568 เวลา 10.39 น. • เผยแพร่ 14 ส.ค. 2568 เวลา 07.06 น.
ชายคนหนึ่งต้องเข้าโรงพยาบาล เพราะคำตอบจาก ChatGPT | ผู้ใช้ หรือ AI ใครผิด ?

เดี๋ยวนี้ใคร ๆ ก็ใช้ AI เป็นเหมือนผู้ช่วยส่วนตัว ตั้งแต่วางแผนเที่ยวไปจนถึงถามเรื่องสุขภาพ แต่เคยคิดไหมว่า ถ้าเราเชื่อคำแนะนำของมันแบบไม่ลืมหูลืมตา การพรอมต์แบบขาดบริบท หรือแม้แต่การขาดความรู้ในการตีความข้อมูล โดยเฉพาะเรื่องที่เกี่ยวกับสุขภาพและชีวิต อะไรจะเกิดขึ้น ?

BT beartai จะมาเล่าเคสจริงเกี่ยวกับคนที่หาข้อมูลจาก AI เพื่อดูแลสุขภาพจนเกิดปัญหา โดยเคสนี้ถูกตีพิมพ์เป็นกรณีศึกษาทางการแพทย์บน APC Journal

เริ่มต้นด้วยการแชตกับ ChatGPT และจบลงที่ห้องฉุกเฉิน

เรื่องนี้เริ่มจากชายวัย 60 ปีคนหนึ่ง ซึ่งไม่เคยมีประวัติป่วยทางจิตหรือโรคประจำตัวมาก่อน จู่ ๆ เขาก็มาที่ห้องฉุกเฉินด้วยอาการสับสนและมึนงงอย่างหนัก พร้อมบอกกับเจ้าหน้าที่ว่า เพื่อนบ้านจะลอบวางยาพิษเขา

ในตอนแรก ทีมหมอยังจับต้นชนปลายไม่ถูก เพราะจากการสอบถาม เขาบอกกับหมอว่าเขาไม่ได้ใช้ยาหรืออยู่ระหว่างการรักษาโรคใด ๆ เลย การทำงานของระบบประสาทในเบื้องต้นเป็นปกติ ทั้งยังไม่มีร่องรองของแอลกอฮอลล์และยาเสพติดในร่างกาย

แต่พอผลเลือดค่าอื่น ๆ ออกมาก็ทำเอาหมองง เพราะเจอค่าความผิดปกติหลายอย่าง เช่น คลอไรด์สูงในระดับที่ผิดปกติ (Hyperchloremia) ค่าบ่งชี้ความสมดุลกรด-ด่างติดลบ (Anion Gap) และภาวะกรด-ด่างอื่น ๆ ที่ผิดปกติ ซึ่งเป็นตัวเลขแปลก ๆ ที่แม้แต่หมอก็ไม่ค่อยได้เห็นกันบ่อย ทีมแพทย์จึงประสานไปยังศูนย์พิษวิทยาเพื่อขอข้อมูล

โดยในช่วง 24 ชั่วโมงแรก อาการของผู้ป่วยแย่ลงเรื่อย ๆ เริ่มเห็นภาพหลอน หวาดระแวงมากขึ้น ได้ยินเสียงแว่วในหู และพยายามจะหนีออกจากโรงพยาบาล จนสุดท้ายหมอต้องสั่งจ่ายยาจิตเวชและให้ดูแลอย่างใกล้ชิดเพื่อความปลอดภัย

เมื่ออาการดีขึ้น เขาได้ให้ข้อมูลว่า ในช่วงที่ผ่านมาเขาพบกับอาการที่ไม่เคยเป็นมาก่อน อย่างเป็นสิว ไฝแดง (Cherry angiomas) อ่อนเพลีย นอนไม่หลับ เดินเซ และกระหายน้ำมากกว่าปกติ

เขายังได้เล่าต่อไปว่า เขาได้อ่านเกี่ยวกับผลเสียต่อสุขภาพของโซเดียมคลอไรด์หรือที่เรารู้จักกันในชื่อเกลือแกง ร่วมกับการที่เขาเคยเรียนเรื่องโภชนาการมาก่อน เขาเลยปิ๊งไอเดียบางอย่างขึ้น และทดลองทำสิ่งนั้นกับตัวเอง เขาเริ่มต้นโปรเจกต์ดูแลสุขภาพสุดพิศดารด้วยการถาม ChatGPT ว่ามีอะไรที่สามารถใช้ทดแทนการใช้เกลือแกงได้ไหม ?

ซึ่ง ChatGPT ก็ตอบว่ามีสารที่ทดแทนโซเดียมคลอไรด์ได้ และหนึ่งในนั้น คือ โซเดียมโบรไมด์ (Sodium Bromide) แม้ว่าจะเป็นการทดแทนเพื่อจุดประสงค์อื่น อย่างการทำความสะอาดก็ตาม

จากนั้น เขาได้สั่งซื้อโซเดียมโบรไมด์จากอินเทอร์เน็ต มาใช้ปรุงอาหารแทนเกลือปรุงอาหารมาตลอดระยะเวลา 3 เดือน โดยไม่รู้เลยว่าเขากำลังค่อย ๆ วางยาพิษตัวเอง และทำให้เกิดภาวะโบรมิซึม (Bromism)

ภาวะโบรมิซึม คืออะไร ทำไมเป็นแล้วหลอน ?

อาการทั้งหมดที่เกิดขึ้นกับเขา ไม่ว่าจะเป็นอาการทางจิต อ่อนเพลีย นอนไม่หลับ เดินเซ หรือเป็นสิวเห่อเต็มหน้า ตรงกับอาการของภาวะโบรมิซึม Bromism หรือภาวะพิษจากโบรไมด์

โดยผลตรวจเลือดขั้นสุดท้ายยืนยันชัดว่า ระดับโบรไมด์ในเลือดของเขาทะลุไปถึง 1,700 mg/L ซึ่งสูงกว่าค่าปกติที่อยู่ราว 0.9 – 7.3 mg/L

จุดพีกของเรื่องก็คือ ค่าคลอไรด์ในเลือดที่สูงมากในตอนแรก จริง ๆ แล้วเป็นเพราะเครื่องตรวจในห้องแล็บให้ผลลัพธ์ที่ผิด เพราะโบรไมด์มีคุณสมบัติคล้ายกับคลอไรด์ จึงทำให้เครื่องตรวจวัดค่าผิดพลาด

แต่ดีที่ภาวะนี้รักษาให้หายได้ แค่หยุดกินโบรไมด์แล้วให้น้ำเกลือเพื่อช่วยล้างพิษออกจากร่างกาย หลังรักษาตัวอยู่ 3 สัปดาห์ อาการทางจิตของเขาก็หายจนกลับบ้านได้ตามปกติ

ถอดบทเรียน : เมื่อ AI มีหน้าที่ให้ข้อมูล แต่ไม่ได้ให้สติ

เคสนี้ไม่ใช่แค่เรื่องแปลกทางการแพทย์ แต่เป็นการแจ้งเตือนสำหรับใครที่ใช้ AI ในการปรึกษาเกี่ยวกับการดูแลสุขภาพและรักษาโรคด้วยตัวเองด้วย จากเรื่องราวของชายคนนี้ทำให้เราได้เห็นบทเรียนหลายอย่างที่สะท้อนถึงโลกในยุค AI ที่แม้ว่ามันจะทรงพลัง แต่ผู้ใช้งานก็มีส่วนรับผิดชอบในการรู้เท่าทันสิ่งประดิษฐ์ที่ดูเหมือนจะฉลาดนี้ด้วย เรามาถอดบทเรียนเรื่องนี้ไปด้วยกัน

AI ให้ข้อมูลถูก แต่ขาดบริบท

แม้ว่า AI จะตอบถูกตามหลักเคมี ว่าโซเดียมโบรไมด์ใช้แทนโซเดียมคลอไรด์ได้ แต่สิ่งที่มันไม่ได้บอก (เพราะมันไม่รู้) คือบริบทสำคัญว่า “โซเดียมโบรไมด์ นี่ห้ามกินนะ มันเป็นพิษ !” ซึ่งในส่วนนี้อาจเป็นความรับผิดชอบของผู้พัฒนาที่ควรให้ความสำคัญในมิติที่มากกว่าการให้ข้อมูลสำหรับเนื้อหาบางอย่างที่มีความละเอียดอ่อน และเกี่ยวข้องต่อสุขภาพ หรือแม้แต่ความเป็นความตาย

AI ถามกลับไม่เป็น

AI บางเจ้า และการใช้งานบางประเภทถูกออกแบบมาให้ถามกลับ แต่อาจจะไม่ใช่กับการพรอมต์เพื่อถามข้อมูลทั่วไปอย่างในเคสนี้ และ AI ไม่ใช่หมอ มันถามกลับไม่ได้ว่า “คุณจะเอาไปทำอะไร ?” เพราะไม่ได้เข้าใจบริบทที่ผู้ใช้ถามอย่างแท้จริง ในมุมนี้ ส่วนหนึ่งก็อาจเป็นหน้าที่ของผู้ใช้ที่จะต้องศึกษาการใช้ AI อย่างรอบคอบ เพื่อลดความเสี่ยงของการตัดสินใจผิดพลาดด้วยเหมือนกัน

คำตอบจาก AI + คนที่ไม่รู้ = เฟกนิวส์

แม้ AI จะช่วยให้คนเข้าถึงความรู้ได้ง่าย แต่ถ้าคนนำไปใช้แบบผิด ๆ ถูก ๆ และขาดความเข้าใจ ก็อาจกลายเป็นเรื่องใหญ่ได้เหมือนกัน ลองจินตนาการว่า หากในช่วงก่อนที่ชายคนนี้จะเกิดอาการหลอนและไปหาหมอ เขาได้เผยแพร่ข้อมูลการใช้โบรไมด์แทนคลอไรด์บน TikTok ให้กับผู้สูงอายุจะเกิดอะไรขึ้น

สุดท้ายแล้ว ต่อให้ AI จะเก่งแค่ไหน มันก็ยังเป็นแค่เครื่องมือที่มีช่องโหว่ ไม่ใช่แค่ในเรื่องสุขภาพแบบในเคสนี้เท่านั้น ลองจินตนาการว่าคุณอยากซ่อมเครื่องใช้ไฟฟ้าด้วยตัวเอง จากขั้นตอนการซ่อมที่ได้มาจาก AI โดยที่คุณไม่เข้าใจมันด้วยซ้ำ แค่ทำตามที่มันบอก ผลลัพธ์จากการซ่อมเครื่องใช้ไฟฟ้าอาจลงเอยด้วยการซื้อบ้านใหม่จากเหตุเพลิงไหม้ หรือไม่ก็ถูกหามเข้าโรงพยาบาล เพราะถูกไฟดูด

สำหรับใครที่มีปัญหาด้านสุขภาพ โดยเฉพาะคนที่มีโรคประจำตัว BT beartai ขอแนะนำให้คุณไปพบแพทย์เพื่อตรวจและวางแผนการรักษาอย่างเหมาะสมนะครับ

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...