โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

ไอที

อย่าเชื่อทุกอย่างที่ AI ตอบ เพราะอาจถูกหลอกด้วยข้อมูลผิด ๆ

BT Beartai

อัพเดต 14 ส.ค. 2568 เวลา 09.31 น. • เผยแพร่ 13 ส.ค. 2568 เวลา 11.06 น.
อย่าเชื่อทุกอย่างที่ AI ตอบ เพราะอาจถูกหลอกด้วยข้อมูลผิด ๆ

ทุกวันนี้เวลาเราอยากได้คำตอบอะไร เราก็มักเลือกถาม Generative AI (ChatGPT, Gemini, Grok) เพราะมันง่าย ถามแล้วได้คำตอบเลย ที่สำคัญดูมีหลักการและเข้าใจง่าย ทำให้มีการเอาไปใช้ร่วมกับการเรียน และการทำงาน ซึ่งหลายคนก็มักจะเชื่อว่า “คำตอบจาก AI นั้นถูกต้อง” และนำไปใช้งาน หรืออ้างอิงโดยไม่ได้ตั้งคำถามว่า มันไปเอาคำตอบมาจากไหน คือคำตอบที่ถูกต้องจริง ๆ หรือเปล่า ? รวมถึงการตรวจสอบความถูกต้องซ้ำ

แม้แต่ผู้สร้างยังบอกว่า “ไม่ควรไว้ใจ AI”

เป็นเรื่องน่าสนใจนะ ที่ผู้คนเชื่อ ChatGPT กันมาก ๆ ทั้ง ๆ ที่ AI ก็มีอาการหลอนข้อมูล (Hallucinates) ได้ พูดง่าย ๆ คือมันควรจะเป็นเทคโนโลยีที่เราไม่ควรจะไว้ใจมันมากขนาดนั้น

— แซม อัลต์แมน (Sam Altman) CEO ของ OpenAI พูดใน the OpenAI Podcast Ep. 1

แม้แต่หัวเรือใหญ่ของ ChatGPT อย่าง แซม อัลต์แมน ยังตั้งคำถามว่า ทำไมผู้คนถึงเชื่อ AI กันมาก ๆ ทั้งที่ AI มักมี ‘อาการหลอนข้อมูล (Hallucinate)’ สร้างข้อมูลที่ไม่มีอยู่จริง และให้คำตอบผิด ๆ ในรูปแบบที่น่าเชื่อถือ สิ่งนี้มีโอกาสเกิดขึ้นได้ทุกเมื่อ

กรณีศึกษาเมื่อ AI มั่วข้อมูลขึ้นมา

มีหลายครั้งที่ผู้คนเชื่อคำตอบจาก AI เกินไป จนเอามาใช้อ้างอิงจริงจัง จนเกิดเป็นเรื่องราวใหญ่โต เคสแรกคือ ไมเคิล โคเฮน (Michael Cohen) อดีตทนายความส่วนตัวของอดีตประธานาธิบดี โดนัลด์ ทรัมป์ (Donald Trump) ที่ใช้ AI ในการรีเซิร์ชคดีในอดีต (Case law) หลายคดีเพื่อสนับสนุนคำร้องในการขอลดระยะเวลาการคุมประพฤติของตัวเองให้สิ้นสุดลงก่อนกำหนด แม้จะมีข้อมูลครบถ้วน และดูน่าเชื่อถือมาก ๆ แต่พอศาลตรวจสอบจริง ๆ กลับพบว่าคดีที่เอามาอ้างทั้งหมด “ไม่มีอยู่จริง” ซึ่งเป็นข้อมูลที่ AI มโน สร้างขึ้นมาเอง โดยไม่มีการตรวจสอบความถูกต้องซ้ำ

อีอีกตัวอย่างเมื่อต้นปี 2025 ที่การันตีได้ว่า “คำตอบจาก AI ไม่ได้ถูกต้องทั้งหมด” คือการที่ BBC ออกมาเผยแพร่ผ่าน Nieman Journalism Lab ของมหาวิทยาลัยฮาร์วาร์ด ว่าได้ทดสอบ ให้ AI ยอดฮิต 4 ตัว เอาข่าวของ BBC มาสรุปและตอบคำถาม ผลลัพธ์ที่ออกมากลับพบว่าคำตอบกว่า 51% ที่ AI สร้างขึ้น “มีปัญหา” ตั้งแต่

  • 19% ของคำตอบมี “ข้อผิดพลาดด้านข้อเท็จจริง” เช่น ตัวเลข, วันที่ หรือข้อมูลสำคัญที่ไม่ถูกต้อง
  • 13% ของคำพูดหรือคำอ้างอิง (Quotes) ถูก “บิดเบือน” ไปจากต้นฉบับ หรือไม่มีอยู่จริงในบทความที่อ้างอิง

และที่ใกล้ตัวเข้ามาอีก เมื่อสำนักข่าวหนึ่งในไทยใช้ AI ในการเขียนข่าว ซึ่งมีจุดที่ผิดพลาดในส่วนของ ชื่อตำแหน่ง และการอ้างอิงถึงนักวิชาการที่เสียชีวิตไปแล้วในข่าวจนเกิดเป็นประเด็นขึ้นมา เรื่องการนำ AI มาใช้โดยที่ไม่มีการตรวจสอบความถูกต้องซ้ำอีกรอบ

คำตอบดูดี แต่ต้องตรวจสอบซ้ำเสมอ

ปฏิเสธไม่ได้ว่าการใช้ AI ตอบคำถามต่าง ๆ ที่สงสัย หรือใช้ร่วมกับการเรียนหรือการทำงานได้จริง ๆ แต่ต้องระลึกไว้เสมอว่า “เราไม่รู้ว่า AI เอาข้อมูลจากไหนมาตอบเรา” การตรวจสอบข้อมูลซ้ำเป็นเรื่องสำคัญที่ควรทำเสมอทุกครั้ง ซึ่งการเช็กซ้ำมีหลากหลายวิธี ซึ่ง BT เองก็มีวิธีการคร่าว ๆ ที่ใช้สำหรับการเช็กข้อมูลซ้ำ

เริ่มตั้งแต่การเขียน Prompt ไม่ว่าเราจะถามคำถามเรื่องอะไร ให้เรากำกับ AI ทุกครั้งว่า “ห้ามสร้างข้อมูลขึ้นมาเอง ให้อ้างอิงแหล่งข้อมูลที่น่าเชื่อถือ พร้อมระบุลิงก์แหล่งที่มา”

จากนั้นก็มาตรวจสอบข้อมูลซ้ำอีกทีจากแหล่งที่มา หรือลิงก์ที่แนบมากับคำตอบอย่างละเอียด แม้ว่าสิ่งที่ AI ตอบออกมาจะดูมีความสมเหตุสมผลแค่ไหนก็ตาม

สุดท้าย AI เป็นเทคโนโลยีที่ดี แต่มันไม่ได้ตอบถูกทั้งหมด และในบางครั้งมันไม่รู้ว่าตอบผิดด้วยซ้ำ อย่างคำที่ แซม อัลต์แมน ผู้ให้กำเนิด ChatGPT ที่พูดไว้ว่า “มันควรจะเป็นเทคโนโลยีที่เราไม่ควรจะไว้ใจมันมากขนาดนั้น”

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...