โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

ไอที

ยิ่งใช้ AI ยิ่งหลงตัวเอง ? งานวิจัยเผยแชตบอตทำให้ผู้ใช้ ‘รู้สึกเก่งกว่าที่เป็นจริง’

BT Beartai

อัพเดต 18 พ.ย. 2568 เวลา 12.32 น. • เผยแพร่ 18 พ.ย. 2568 เวลา 12.29 น.
ยิ่งใช้ AI ยิ่งหลงตัวเอง ? งานวิจัยเผยแชตบอตทำให้ผู้ใช้ ‘รู้สึกเก่งกว่าที่เป็นจริง’

ผลวิจัยใหม่จากมหาวิทยาลัยอัลโต (Aalto University) พบว่าการใช้ AI ทำให้ผู้ใช้ทุกคน ไม่ว่าจะเก่งหรือไม่เก่ง ต่างมีความมั่นใจในความสามารถของตัวเองสูงเกินจริง เมื่อต้องทำงานร่วมกับ AI เสี่ยงนำไปสู่การตัดสินใจที่ผิดพลาดและทักษะที่เสื่อมถอย

ทำความรู้จัก Dunning-Kruger effect

ปกติคนเราเวลาที่ต้องประเมินตัวเอง เรามักจะประเมินตัวเองผิด โดยแนวโน้มของมนุษย์คือคนที่ไม่เก่งมักประเมินว่าตัวเองเก่งเกินจริง และคนที่เก่งมักประเมินว่าตัวเองไม่ได้เก่งขนาดนั้น แต่หลักการนี้อาจจะถูกล้มล้างไปเพราะตั้งแต่มีการใช้งาน AI ใคร ๆ ก็ต่างประเมินตัวเองเก่งขึ้น

งานวิจัยล่าสุดจากมหาวิทยาลัยอัลโต ประเทศฟินแลนด์ ร่วมกับนักวิจัยในเยอรมนีและแคนาดา พบว่าการใช้ AI โดยเฉพาะแชตบอต เพราะมักจะทำให้เกิดปรากฏการณ์ที่ผู้คนประเมินความสามารถของตัวเองสูงเกินความเป็นจริง หรือที่เรียกว่า ‘ภาพลวงตาแห่งความสามารถ’

โดยหลักการทางจิตวิทยาที่เรียกว่าปรากฏการณ์ Dunning-Kruger ระบุว่าคนที่มีความสามารถต่ำมักจะมั่นใจในตัวเองสูงเกินจริง ขณะที่คนเก่งกลับประเมินความสามารถตัวเองต่ำไป แต่การใช้ AI กลับทำลายปรากฏการณ์นี้ทิ้งไปอย่างสิ้นเชิง เพราะไม่ว่าจะเก่งจริงหรือเก่งปลอมทั้งสองกลุ่มกลับมาความมั่นใจมากขึ้นหลังจากใช้ AI

ผลการวิจัยที่ยืนยันเรื่องการใช้ AI และปัจจัยความหลงตัวเอง

ทั้งนี้นักวิจัยก็ได้มีการทำวิจัยทดลองกับกลุ่มตัวอย่าง 500 คนที่ได้รับโจทย์แก้ปัญหาเชิงตรรกะ แบ่งเป็นกลุ่มที่ใช้ ChatGPT และอีกกลุ่มที่ทำโจทย์นั้นด้วยตนเอง

ได้ผลลัพธ์ว่า ผู้ที่ใช้งาน AI มีความมั่นใจสูงมาก ๆ ทำให้ช่องว่างระหว่างผู้ที่มีทักษะสูงและทักษะต่ำในการประเมินตนเองลดลงอย่างมาก / การที่ AI ช่วยให้ทุกคนทำงานได้ดีขึ้นอีกระดับ ส่งผลให้ทุกคนประเมินตัวเองสูงขึ้นกว่าเดิมซึ่งนักวิจัยก็มองว่าเป็นปัญหาในระยะยาว (เพราะเมื่อหลงตัวเอง ก็จะไม่หาแนวทางในการพัฒนาตนเอง)

ปัญหาเกิดจากอะไร และควรแก้ไขอย่างไร ?

สาเหตุที่ผู้ใช้ AI มั่นใจเกินจริงเกิดจากการถ่ายโอนความคิด (Cognitive Offloading) กล่าวคือ ผู้ใช้มักยอมรับคำตอบจาก AI อย่างรวดเร็วตั้งแต่ Prompt แรกโดยไม่มีการตรวจสอบหรือคิดวิเคราะห์เชิงลึก ส่งผลให้กระบวนการคิดวิพากษ์ (Critical Thinking) และการประเมินตนเอง (Metacognitive Monitoring) ลดลง

การพึ่งพา AI ในลักษณะนี้มีความเสี่ยงสูงมาก แบ่งเป็น 2 ประเด็น คือ

  • ทักษะการตรวจสอบความผิดพลาดจะเสื่อมถอย เนื่องจากขาดการตั้งคำถามต่อผลลัพธ์
  • นำไปสู่การตัดสินใจที่ผิดพลาดในวงกว้าง โดยเฉพาะเมื่อผู้ใช้ประเมินความสามารถของตนเองสูงเกินจริง

การใช้ AI ที่เหมาะสมคือการใช้เป็นเครื่องมือเสริมที่ช่วยยกระดับผลลัพธ์ แต่ไม่ใช่เครื่องมือทดแทนการคิดวิเคราะห์และการประเมินตนเอง ผู้ใช้ต้องรักษาและพัฒนาทักษะพื้นฐานของตนเองไว้ควบคู่ไปด้วย เพื่อให้สามารถตรวจสอบความผิดพลาดและตัดสินใจได้อย่างถูกต้องแม่นยำ นักวิจัยจึงเสนอให้ออกแบบระบบ AI ให้กระตุ้นการไตร่ตรอง เช่น การเพิ่มคำถามย้อนกลับเพื่อท้าทายความมั่นใจของผู้ใช้ (คุณมั่นใจในคำตอบนี้แค่ไหน ?) พร้อมกับการส่งเสริมการพัฒนาทักษะการคิดเชิงวิพากษ์ควบคู่ไปกับการใช้เครื่องมือ AI ไปด้วย

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...