โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

ไอที

หลงผิด รู้จัก AI Psychosis เป็นโรคจิตเพราะแชทบอท

Techhub

อัพเดต 12 ส.ค. 2568 เวลา 08.31 น. • เผยแพร่ 12 ส.ค. 2568 เวลา 08.31 น.

เชื่อว่าแชทบอท AI กลายเป็นเครื่องมือในชีวิตประจำวันของใครหลายคน เราใช้มันช่วยทำงาน เขียนอีเมล ไปจนถึงขอคำปรึกษาเรื่องความรัก ให้มันดูดวง หรือแม้กระทั่งใช้เป็นเพื่อนคุยแก้เหงา แต่สำหรับผู้ใช้บางกลุ่ม การพูดคุยกับ AI กลับส่งผลกระทบที่น่ากังวลและอาจอันตรายถึงชีวิตได้เลย

ปรากฏการณ์ที่เรียกกันติดปากว่า ChatGPT Psychosis หรือ “AI Psychosis” ซึ่งส่งผลกระทบอย่างรุนแรงต่อชีวิต เช่น ถึงขั้นตกงาน ความสัมพันธ์พังทลาย ถึงขั้นอาจถูกควบคุมตัวในสถานบำบัดทางจิต หรือถึงขั้นถูกจับกุม

AI Psychosis คืออะไรกันแน่?

คำว่า AI Psychosis ยังไม่ใช่ศัพท์ทางการแพทย์ แต่เป็นคำที่ใช้อธิบายปรากฏการณ์ที่ผู้ใช้เริ่มมีอาการหลงผิด หรือความเชื่อที่บิดเบือนไปจากความจริง โดยมีสาเหตุมาจากการพูดคุยกับ AI

ผู้เชี่ยวชาญชี้ว่า จริงๆ แล้วอาจไม่ใช่ โรคจิต (Psychosis)แบบเต็มรูปแบบที่มีทั้งอาการหลงผิดและประสาทหลอน แต่เน้นไปที่อาการหลงผิดเป็นหลัก ปัญหานี้เกิดจากธรรมชาติของแชทบอทที่ถูกออกแบบมาให้คล้อยตามและเอาใจผู้ใช้โดยจะสะท้อนภาษาและยืนยันความคิดของผู้ใช้เสมอ ซึ่งสำหรับคนที่มีสภาพจิตใจเปราะบาง การถูกตอกย้ำความคิดที่บิดเบือนซ้ำๆ อาจทำให้อาการรุนแรงขึ้น

แล้วใครคือกลุ่มเสี่ยงที่สุด?

แม้คนส่วนใหญ่จะใช้แชทบอทได้โดยไม่มีปัญหา แต่มีคนกลุ่มเล็กๆ ที่มีความเสี่ยงสูงที่จะเกิดอาการหลงผิดนะ

1.ผู้ที่มีประวัติส่วนตัวหรือคนในครอบครัวเคยป่วยเป็นโรคจิตเภท (Schizophrenia) หรือไบโพลาร์ (Bipolar disorder)
2.ผู้ที่มีแนวโน้มจะเชื่อในทฤษฎีแปลกๆ หรือมีบุคลิกภาพบางอย่าง เช่น ไม่ค่อยเข้าสังคม ควบคุมอารมณ์ไม่เก่ง และมีจินตนาการสูงเกินจริง
3.ผู้ที่ใช้เวลาคุยกับแชทบอทนานเกินไป ผู้เชี่ยวชาญจากสแตนฟอร์ดชี้ว่าเวลาคือปัจจัยสำคัญที่สุด คนที่เสี่ยงคือคนที่ใช้เวลาหลายชั่วโมงต่อวันในการคุยกับ AI

แล้ววิธีที่ปลอดภัยล่ะ?

แชทบอทไม่ใช่สิ่งที่อันตรายโดยเนื้อแท้ แต่สำหรับบางคน การใช้งานอย่างระมัดระวังเป็นสิ่งสำคัญ สิ่งสำคัญคือต้องจำไว้เสมอว่ามันคือ เครื่องมือ ไม่ใช่ เพื่อน ไม่ว่า AI จะคุยเก่งแค่ไหน อย่าเชื่อใจมันจนเล่าเรื่องส่วนตัวที่เปราะบาง หรือพึ่งพามันเป็นที่พึ่งทางใจเพียงอย่างเดียว

เมื่อรู้สึกแย่ ให้หยุดใช้ทันที โดยหากรู้สึกว่ากำลังอยู่ในภาวะอารมณ์อ่อนไหวหรือเครียด การหยุดคุยกับ AI และหันไปหาความสัมพันธ์ในโลกจริงหรือขอความช่วยเหลือจากผู้เชี่ยวชาญคือทางออกที่ดีที่สุด (ก็คงจะจริง)

คนรอบข้างสามารถช่วยกันสอดส่องได้นะ โดยเพื่อนและครอบครัวควรสังเกตการเปลี่ยนแปลงทางอารมณ์ การนอน หรือพฤติกรรมการเข้าสังคม หากพบว่าคนใกล้ตัวเริ่มแยกตัว หมกมุ่นกับ AI หรือความเชื่อแปลกๆ มากผิดปกติ นั่นอาจเป็นสัญญาณอันตราย

แล้วบริษัทที่พัฒนา AI ต้องรับผิดชอบอะไรไหม ?

จนถึงตอนนี้ ภาระในการระวังภัยยังตกอยู่ที่ผู้ใช้เป็นหลัก แต่ผู้เชี่ยวชาญมองว่าบริษัทเทคโนโลยีต้องเข้ามามีบทบาทมากขึ้น เช่น

1.ร่วมมือกับผู้เชี่ยวชาญด้านสุขภาพจิต เพื่อประเมินความเสี่ยงและออกแบบระบบให้ปลอดภัยขึ้น
2.สร้างระบบป้องกันในตัว AI เช่น การแจ้งเตือนให้ผู้ใช้หยุดพักเมื่อคุยนานเกินไป, การตรวจจับสัญญาณความทุกข์ใจของผู้ใช้ หรือปรับแก้คำตอบของ AI ไม่ให้คล้อยตามความเชื่อที่หลงผิด
3.ทดสอบระบบเพื่อหาความเสี่ยง โดยจำลองสถานการณ์คุยกับผู้ใช้ที่มีภาวะทางจิตต่างๆ เช่น โรคย้ำคิดย้ำทำ (OCD), ภาวะแมเนีย (Mania) หรือโรคจิต เพื่อดูว่า AI ตอบสนองอย่างไรและนำไปปรับปรุงแก้ไข

ผลกระทบของ AI ต่อสุขภาพจิต เป็นเรื่องที่ต้องให้ความสำคัญอย่างจริงจัง แชทบอทมีศักยภาพมหาศาลในการช่วยลดความเหงาและสนับสนุนการเรียนรู้ แต่หากเรามองข้ามผลกระทบด้านลบ ศักยภาพเหล่านั้นอาจไร้ความหมาย บทเรียนจากยุคโซเชียลมีเดียสอนเราว่า การเพิกเฉยต่อปัญหาสุขภาพจิตนำมาซึ่งผลกระทบที่ร้ายแรงในระดับสาธารณสุข และสังคมไม่ควรทำผิดพลาดซ้ำอีกครับ

ที่มา

https://time.com/7307589/ai-psychosis-chatgpt-mental-health/


⭐️Techhub รวม How To , Tips เทคนิค อัปเดตทุกวัน

กดดูแบบเต็มๆ ที่ www.techhub.in.th

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...