เสียงสะท้อนผู้เชี่ยวชาญ-สื่อไทย พบข่าวปลอมโลกปี 68 ที่ผ่านมา “ยังน่ากลัว-ยากจะหยุดยั้ง”
THAI PBS VERIFY เปิดสถิติข่าวลวงรอบปี
คุณ กนกพร ประสิทธิ ผู้อำนวยการสำนักสื่อดิจิทัล Thai PBSเปิดเผยถึงการทำงานของ Thai PBS Verify ที่ผ่านมาเอาไว้ว่า จากสถิติการตรวจสอบข่าวของ Thai PBS Verifyนับตั้งแต่เริ่มก่อตั้งเมื่อ ต.ค. 67 พบว่ามีกว่า 421 ข่าวที่ถูกตรวจสอบ โดยจากข้อมูลการตรวจสอบข่าว 5 ประเภท พบว่า ข่าวสังคมเป็นหมวดหมู่ที่มีการตรวจสอบมากที่สุดถึง 33% รองลงมาคือ ข่าวการเมือง28% และข่าวรอบโลก22%
ทั้งนี้พบว่า ข่าวปลอมต่าง ๆ มักจะเกิดขึ้นตามสถานการณ์ หรือเหตุการณ์สำคัญที่เกิดขึ้นในเวลานั้น เช่น เหตุการณ์ความขัดแย้ง ไทย-กัมพูชา, เหตุน้ำท่วมภาคใต้หรือ สถานการณ์ตะวันออกกลางโดยข่าวปลอมเหล่านี้มักมีการใช้ AI-Slop สร้างข่าวปลอม หรือการปลุกกระแสข่าวปลอม และการบิดเบือนข่าว ที่ผสมผสานเหตุการณ์อื่น ๆ รวมถึงการใช้เทคโนโลยีจากเกม เพื่อสร้างข่าวปลอมต่าง ๆ บนโซเชียลมีเดียอีกด้วย
นอกจากนี้ คุณ กนกพร ยังระบุถึงสิ่งที่ Thai PBS Verify ได้เรียนรู้ในปี 2568 ที่ผ่านมา ได้แก่
- AI เก่งขึ้น: เครื่องมือตรวจสอบที่ถูกสร้างขึ้นมาเป็นเวลานาน เริ่มไม่สามารถตรวจสอบเทคโนโลยี AI ใหม่ ๆ ได้
- Fake News กระจายไว แต่ข่าวกระจายช้า: คนมักเห็นข่าวปลอมมากกว่าเนื่องด้วยปริมาณที่ถูกแชร์ต่อออกไปในเวลาอันสั้น
- สื่ออาจตกเป็นเหยื่อ: ผู้ไม่หวังดีอาจใช้สื่อเป็นแหล่งต่อยอดข่าวปลอม หรือลิงก์ปลอมต่าง ๆ
- วิกฤตยิ่งเป็นตัวเร่ง: ข่าวลวง / ข้อมูลเท็จ เกิดขึ้นได้ทุกวัน และทุกเรื่อง แต่จะเพิ่มมากขึ้นเมื่อเกิดวิกฤต
- “อย่าผิดเสียเอง”: ทีมงานในการตรวจสอบข่าว ยิ่งต้องระมัดระวังในการตรวจสอบข้อมูลในฐานะผู้ตรวจสอบข่าวจริงและปลอม
คุณกนกพร ประสิทธิ ผู้อำนวยการสำนักสื่อดิจิทัล Thai PBS
ชัวร์ก่อนแชร์ สะท้อน 3 กลุ่มข่าวปลอมที่ต้องเผชิญ
นายพรีพล อนุตรโสตถิ์ ผู้จัดการ ศูนย์ชัวร์ก่อนแชร์ อสมท. ได้สะท้อนถึงการตรวจสอบข่าวของศูนย์ชัวร์ก่อนแชร์ในรอบปีว่า ศูนย์ชัวร์ก่อนแชร์พบ “3 กลุ่มของข่าวปลอม” ที่น่าสนใจในรอบปี ที่ประชาชนอาจจะต้องเผชิญกันในอนาคต ได้แก่
- ข่าวปลอมที่ไม่ใช่ข่าวปลอม: ข้อความทั้งหมดที่แชร์ออกมาแม้จะจริงหมด แต่เมื่ออ่านแล้วอาจก่อให้เกิดความเข้าใจผิดในการอ่านได้ เช่น การตัดเนื้อหาบางส่วนออก ซึ่งอาจจะเกิดขึ้นโดยจงใจ หรือไม่ก็เป็นได้
- การเชื่อใน AI: เป็นหัวข้อใหญ่ที่เกิดขึ้นในปัจจุบัน ซึ่งอาจมาได้ด้วยหลากหลายแหล่งข่าว โดยเฉพาะจากการรวบรวมข้อมูลของ AI ซึ่งสามารถแบ่งย่อยออกได้เป็น 2 ประเภท ประกอบไปด้วย
- รู้เท่าไม่ถึงการ: เช่น จากอุปกรณ์ค้นหาที่แนะนำมาที่ด้านบนสุด ซึ่งเมื่อเราดูผลการค้นหา และพบว่าหลายสื่อหลายอย่างมีการปรากฏข้อมูลที่คล้ายกัน จึงทำให้เกิดความเข้าใจผิดได้
- รู้ตัวว่าไม่สมบูรณ์ แต่ยังทำต่อ: พบได้มากจากครีเอเตอร์ ที่ได้สั่งการระบบเอาไว้โดยง่าย ซึ่งบางครั้งความผิดพลาดของมันอาจจะนำมาสู่ความเข้าใจผิดในโลกจริงได้
- สื่อที่ถูกหลอกหรือ Source Hackingคือการทำให้ข้อมูลเหล่านั้นถูกขยาย และหากข้อมูลสามารถหลอกสื่อได้ ข้อมูลเหล่านั้นก็จะขยายเอง จนอาจทำให้ข้อมูลผิดกลายเป็นน่าเชื่อถือ และแพร่กระจายได้ง่ายโดยไม่ทันระวัง
เราควรจะต้องแยกแยะให้ได้ และต้องสงสัยไว้ก่อน เทคนิคที่ทุกคนจะได้ยินมากขึ้นคือการไม่มีความเชื่อในสิ่งใดไว้ก่อน หรือ “Zero Trust”
นายพรีพล อนุตรโสตถิ์ ผู้จัดการ ศูนย์ชัวร์ก่อนแชร์ อสมท.
“สื่อออนไลน์” เริ่มเปลี่ยนสู่การ “Fact-Check”
นายจีรพงษ์ ประเสริฐพลกรัง อุปนายกด้านมาตรฐานวิชาชีพ สมาคมผู้ผลิตข่าวออนไลน์ (SONP) ระบุว่า ปีที่ผ่านมาสมาคมผู้ผลิตข่าวออนไลน์ มีความต้องการที่จะสร้างการรับรู้เรื่องของการตรวจสอบข่าวให้เกิดขึ้น ซึ่งในรอบปีที่ผ่านมาถือว่า เป็นปีที่ประสบความสำเร็จอย่างมาก เพราะมีถึง 54 สื่อ ที่ได้รับองค์ความรู้เรื่องของการตรวจสอบข่าว รวมถึงมีระบบในบรรณาธิการ ในการที่จะทำการตรวจสอบ Fact-Check ในข่าวประจำวันของตนเองทุกข่าว ซึ่งถือเป็นเรื่องที่น่ายินดี
สมาคมผู้ผลิตข่าวออนไลน์ได้เริ่มทำโครงการ Stop Fake Spread Fact ตั้งแต่เดือนมกราคมที่ผ่านมา ซึ่งได้มีการวางเป้าหมายเพื่อที่จะทำการตรวจสอบข่าวไว้ที่จำนวน 120 ข่าว ในเวลา 9 เดือน โดยปัจจุบันมียอดการมองเห็นถึง 1.5 ล้าน รวมถึงผลิตเนื้อหาแล้ว 40 ข่าว ซึ่งถือว่าใกล้จะถึงเป้าหมายของยอดการมองเห็นที่ตั้งไว้ที่ 1.8 ล้าน ได้ในอีกไม่นานนี้
ปัจจุบันสมาคมผู้ผลิตข่าวออนไลน์ มีการตรวจสอบข่าวหลายหมวด ซึ่งแบ่งไปตามความถนัดของสื่อนั้น ๆ ซึ่งในรอบปีที่ผ่านมายังมีการจัดการอบรม AI News Room ที่ให้ความรู้เรื่องของ AI ทั้งระบบกับผู้สื่อข่าวออนไลน์ การมอบรางวัลการตรวจสอบข่าวประจำปีให้กับสื่อออนไลน์ การให้ความรู้กับนักศึกษาเพื่อนำความรู้ไปเผยแพร่ต่อในมหาวิทยาลัย
จีรพงษ์ ประเสริฐพลกรัง อุปนายกด้านมาตรฐานวิชาชีพ สมาคมผู้ผลิตข่าวออนไลน์ (SONP)
แม้ AI จะพัฒนาและถูกใช้สร้างข่าวปลอมเพิ่ม แต่เครื่องมือ-ประสบการณ์ คือเกราะป้องกัน
คุณณัฐกร ปลอดดี Southeast Asia Digital Verification Editor จาก Agence France-Presse (AFP)เปิดเผยถึงการตรวจสอบข่าวในรอบปีว่า ปีที่ผ่านมาถือเป็นปีที่มีความท้าทายสูงมาก โดยเฉพาะการเมืองของสหรัฐฯ ที่มีผลกับทุกประเทศทั่วโลก เห็นได้จากการตรวจสอบข่าว Fact-Check ของ AFP ที่มีจำนวนลดลง เนื่องจาก Facebook ถูกตัดงบประมาณของในการตรวจสอบข่าว ที่เกิดขึ้นนับตั้งแต่การเข้ามารับตำแหน่งของประธานาธิบดีโดนัลด์ ทรัมป์
ขณะที่ประเทศไทยปีที่ผ่านมาเป็นปีที่ข้อมูลเท็จโหมกระหน่ำมาก โดยเฉพาะกับคนไทยและสื่อไทยด้วยกัน ที่เริ่มตั้งแต่เหตุการณ์แผ่นดินไหว, เหตุการณ์การเผชิญหน้าทางการทหารระหว่างไทย-กัมพูชา ถึงสองครั้ง ซึ่ง AFP พบว่า โลกออนไลน์ในไทยมีการใช้ภาพหรือสื่อปลอมในการเผยแพร่ข่าวจำนวนมาก โดย AFP ได้มีการรายงานเรื่องนี้ไปในรายงานด้วยเช่นเดียวกัน ว่าเป็นหนึ่งในปัจจัยในการเร่งให้ข่าวปลอม แพร่กระจาย
นอกจากนี้ปีที่ผ่านมา AFP ได้รายงานการตรวจสอบข่าวทั่วโลกไปถึง 6,800 ชิ้น ในจำนวนนี้มีเนื้อหาที่เป็น AI เกี่ยวข้องด้วยถึง 11 เปอร์เซ็นต์หรือราว 600-700 เรื่องซึ่งถือว่าเป็นจำนวนที่เยอะมาก และยังคงเพิ่มขึ้นต่อไป เพราะ AI เป็นเครื่องมือที่ทุกคนสามารถเข้าถึงได้
“ปีที่ผ่านมาถือว่าการพัฒนาของ AI พัฒนาไปอย่างก้าวกระโดด แต่จากการทำงานของ AFP ในรอบปีที่ผ่านมา ก็ยังคงพบว่า เรายังสามารถรับมือเนื้อหาที่ผลิตจาก AI ได้ ด้วยการใช้เครื่องมือ และการหาหลักฐานด้วยการตรวจสอบข่าว ซึ่ง 2 หลักนี้ยังคงสามารถใช้ในการตรวจสอบข่าวปลอมจาก AI ได้อยู่ในปัจจุบัน และเชื่อว่ายังคงสามารถใช้ได้ต่อไป แม้ว่าเทคโนโลยีจะพัฒนามากขึ้นก็ตาม”
คุณณัฐกร ยังระบุว่า การตรวจสอบข่าวมีความซับซ้อนมากขึ้น มีการนำเรื่องจริงเรื่องเท็จเข้ามาปะปน บางครั้งเรื่องที่ตรวจสอบพบ อาจจะไม่ใช่เรื่องที่ขาวหรือดำ แต่เป็นเรื่องที่มีการผสมกัน ซึ่งสิ่งที่เห็นได้ชัดเจนที่สุด ทั้งในต่างประเทศและในไทยคือ อุตสาหกรรมการควบคุมสื่อและข้อมูลข่าวสาร ที่พบว่ามีกลุ่มเครือข่ายหรือพันธมิตร ที่เข้ามาพยายามตีความ หรือควบคุมชุดข้อมูลอย่างเป็นระบบ ซึ่งสิ่งที่จะเป็นสิ่งที่ปกป้องให้ความน่าเชื่อถือของ Fact-Check คือ การนำเสนอที่โปร่งใส การเคารพต่อหลักฐาน และหลักการที่ใช้ในการตรวจสอบข้อมูลข่าวสาร
ณัฐกร ปลอดดี Southeast Asia Digital Verification Editor จาก Agence France-Presse (AFP)
ผู้เชี่ยวชาญ AI ไต้หวัน สะท้อน AI ให้คำตอบตามภูมิภาคของผู้ถาม
อีธาน ตู(Etan Tu) วิศวกรจาก Taiwan AI Labอธิบายถึงการใช้เทคโนโลยี AI ของเขาเอาไว้ว่า จากการทดลอง AI หลายโมเดล เช่น Chat GPT และโมเดลอื่น ๆ ของไต้หวัน ภายในหน่วยงานต่าง ๆ พบว่า แต่ละโมเดลยังมีการให้คำตอบที่ต่างกันออกไป และเมื่อส่งคำถามไปยัง AI เหล่านั้นในแต่ละภาษา พบว่าจะมีการให้คำตอบเชิง Bias หรือเอนเอียงตามภาษาของผู้ส่ง
“หากถามด้วยสำเนียงภาษาจีนไต้หวัน กับจีนแผ่นดินใหญ่ คำตอบที่ได้รับกลับมาจะมีความแตกต่างกัน ตามการฝึกจากเจ้าของภาษานั้น ๆ ซึ่งอาจส่งผลให้เกิดการปั่นข่าวผิด ๆ จากนอกประเทศ ตามการให้ข้อมูลในภาษาต่าง ๆ ได้”
อีธาน ตู (Etan Tu) วิศวกรจาก Taiwan AI Lab สะท้อนผลการทดสอบ AI ที่พบว่า AI มักให้คำตอบเชิง Bias หรือเอนเอียงตามภาษาของผู้ส่ง
การตรวจสอบ Deepfake ของญี่ปุ่น และการรู้เท่าทันของ Gen A to Baby Boomer
โนอา โฮริกูชิ(Noa Horiguchi) CEO, ผู้ร่วมก่อตั้ง Classroom Adventureได้ให้ความรู้ถึงเรื่อง “การสร้างความน่าเชื่อถือใจยุคของ AI” โดยร่วมพูดคุยถึงปัญหาสแกมเมอร์ออนไลน์ในประเทศญี่ปุ่น รวมถึงข้อมูลจาก AI ที่ไม่ถูกต้องบนโซเชียลฯ เช่น ข้อมูลจาก AI บนโซเชียลฯ ในยุคปัจจุบันที่มีอินฟลูฯ หลายคน ทำให้มีการประยุกต์ใช้งาน AI เพื่อสร้างเนื้อหาของตัวเองขึ้นมา บ้างก็มีความถูกต้อง แต่บ้างก็เป็นการให้ข้อมูลผิด ๆ จนกลายเป็นเรื่องเข้าใจผิดในสังคมมากมาย
นอกจากนี้ยังเปิดเผยถึงการสร้างเว็บไซต์ปลอมจาก AI ที่บางครั้งเมื่อมีการเขียน Prompt โมเดล AI อาจจะมีการสร้างลิงก์ หรือเว็บไซต์ปลอมขึ้นมา เพื่อประกอบบริบทของตัวเอง และมีโอกาสสูงที่จะถูกนำไปใช้สร้างผลประโยชน์หลังจากนั้นได้
“AI Deepfake ที่เนียนและง่ายขึ้น ทั้งในญี่ปุ่น และในไทย มีความเสียหายจากการใช้ Deepfake Scam ที่ดูมีน้ำหนักและน่าเชื่อถือมากขึ้น จนคาดเดายากว่าเป็นตัวตนจริง ๆ หรือเป็นมิจฉาชีพแอบอ้าง”
โนอา โฮริกูชิ (Noa Horiguchi) CEO, ผู้ร่วมก่อตั้ง Classroom Adventure ระบุ AI Deepfake ที่เนียนและง่ายขึ้น ส่งผลกระทบไม่ว่าจะในญี่ปุ่นหรือประเทศอื่น ๆ
COFACT สะท้อน “เนื้อหาเท็จยังลอยนวล” เพราะคนยังไม่เห็นประโยชน์
คุณกุลธิดา สามะพุทธิ กองบรรณาธิการ COFACT ประเทศไทยระบุว่า ตั้งแต่วันที่ 1 มี.ค. 68 ถึง 31 มี.ค. 69 พบว่า โคแฟค ตรวจสอบข่าวไปแล้วจำนวน 283 ชิ้น รวมถึงมียอดเข้าชมกว่า 100,000 ครั้ง ซึ่งการตรวจสอบของโคแฟค ไม่เพียงแต่ตรวจสอบข่าวที่ปลอมเพียงเท่านั้น แต่ข่าวอะไรก็ตามที่ดูคลุมเคลือหรือดูยังไม่ชัดเจน ก็เป็นสิ่งหนึ่งที่สำคัญในการตรวจสอบข้อเท็จจริงด้วยเช่นกัน
ทั้งนี้โคแฟคยังมีการระบุถึงความน่ากังวล 3 ข้อที่พบจากการตรวจสอบข่าวในรอบปี ประกอบด้วย
- เนื้อหาเท็จยังลอยนวลแม้จะถูกตรวจสอบจากการตรวจสอบข่าวปลอมมากมาย พบว่ามีเพียง 46 กรณี ที่มีการลบหลังจากถูกตรวจสอบไป แต่ยังมีถึง 171 กรณีที่ยังลอยนวล และมียอดการแชร์และตอบโต้ที่มากขึ้นเรื่อย ๆ
- สื่อมวลชนมีส่วนในการกระจายเนื้อหาเท็จแม้จะมีการตรวจสอบเนื้อหาทั้งหมดแล้วก็ตาม แต่สื่อมวลชนอื่น ๆ กลับยังมีการแชร์ภาพและเนื้อหาข่าวปลอมดังกล่าวเพื่อปลุกปั่นความเกลียดชังต่อไป
- คนจำนวนมากยังไม่เห็นประโยชน์ของงาน Fact-Checkมีความเห็นจำนวนมาก ที่ไม่แคร์การวิเคราะห์หรือการตรวจสอบข่าว แต่กลับเผยแพร่ต่อเพียงเพราะต้องการทำแค่เพื่อความสะใจของตัวเองเพียงเท่านั้น
กุลธิดา สามะพุทธิ กองบรรณาธิการ COFACT ประเทศไทย
นอกจากนี้ ภายในงาน “วันข่าวปลอมโลกปี 69” นี้ ยังมีโซนกิจกรรมอื่น ๆ ที่ให้ผู้เข้าร่วมได้ร่วมสนุกและรับของรางวัลมากมาย เช่น
5 คำถามวัดความเป็น “Fact Checker” กับ THAI PBS VERIFY
Thai PBS Verifyนำมินิเกมตอบคำถาม 5 คำถาม เพื่อลุ้นรับของรางวัล ได้แก่ เสื้อจาก Thai PBS Verfy และของรางวัลอื่น ๆ ซึ่งเกมที่นำมาให้ผู้ร่วมงานร่วมกิจกรรมนั้นมีเนื้อหาเกี่ยวกับพื้นฐานการตรวจสอบข่าวปลอมบนโซเชียลฯ และการรับมือกับข่าวปลอมบนโลกออนไลน์เบื้องต้น
บูธ 5 คำถามวัดความเป็น “Fact Checker” โดย Thai PBS Verify
“CHECK DOO” เว็บไซต์รวมการตรวจสอบข่าวปลอมจาก ม.มหาสารคาม
บูธโดยนักศึกษามหาวิทยาลัยมหาสารคาม ที่เปิดตัวเว็บไซต์ Check Doo เว็บไซต์สำหรับรวบรวมข่าวสาร และการตรวจสอบข่าวปลอมจากเว็บไซต์ต่าง ๆ ที่น่าเชื่อถือเอาไว้ในที่เดียว
นักศึกษาจากมหาวิทยาลัยมหาสารคาม เปิดตัวเว็บไซต์ CheckDoo เว็บไซต์ที่รวบรวมข้อมูลการตรวจสอบข่าวปลอม