เมื่อสิ่งที่เห็นไม่ใช่ความจริง เอาตัวรอดจากยุค Deepfake ได้อย่างไร?
วันก่อนผมได้ดูวิดีโอสั้นๆ เรื่องหนึ่งที่เล่าเรื่องราวของผู้รอดชีวิตสองคนจากเหตุการณ์ทิ้งระเบิดที่ฮิโรชิมาในปี 1945 ทั้งคู่เป็นเพื่อนนักเรียนที่กำลังซ้อมดนตรีด้วยกันในเช้าวันเกิดเหตุ แต่แล้วก็เกิดโศกนาฏกรรมขึ้น พวกเขาพลัดพรากจากกันและต่างคิดว่าอีกฝ่ายเสียชีวิตไปแล้วเป็นเวลากว่า 70 ปี จนกระทั่งได้กลับมาพบกันอีกครั้งในวัยชรา และได้เล่นเพลงที่แต่งร่วมกันในอดีตซึ่งเป็นเพลงสุดท้ายของพวกเขา
หากไม่ได้อ่านคำอธิบายประกอบและสังเกตดีๆ ผมอาจจะไม่มีทางทราบเลยว่าวิดีโอนี้สร้างขึ้นโดยใช้ AI เพื่อจำลองภาพเหตุการณ์และบุคคลในอดีต แม้จะไม่มีข้อมูลทางเทคนิคว่าใช้ AI อย่างไร แต่เรื่องราวที่นำเสนอนั้นมีความสมจริงทางอารมณ์และสามารถถ่ายทอดความรู้สึกสะเทือนใจได้เป็นอย่างดี
ความก้าวหน้าของเทคโนโลยีในช่วง 2-3 ปีที่ผ่านมาทำให้การสร้างวิดีโอสังเคราะห์เป็นไปได้โดยง่าย อย่างล่าสุด Google ก็ได้เปิดงานสัมมนาประจำปีด้วยวิดีโอที่สร้างจากโมเดล AI ที่ชื่อว่า Veo 3 ซึ่งสามารถแปลงข้อความเป็นวิดีโอที่ดูสมจริงราวกับผ่านการถ่ายทำและตัดต่ออย่างมืออาชีพ แต่น่ากังวลยิ่งกว่านั้นคือการแพร่หลายของวิดีโอที่สร้างด้วย AI เพื่อบิดเบือนข้อมูลที่รู้จักกันในชื่อ “Deepfake”
Deepfake คือสื่อที่สร้างขึ้นโดยใช้ AI เพื่อบิดเบือนหรือสร้างภาพ เสียง หรือวิดีโอที่ไม่ได้เกิดขึ้นจริง หรือทำให้บุคคลใดบุคคลหนึ่งดูเหมือนพูดหรือทำในสิ่งที่พวกเขาไม่เคยทำ ความก้าวหน้าของเทคโนโลยีนี้ทำให้การแยกแยะระหว่างเนื้อหาจริงและเนื้อหาที่สร้างโดย AI กลายเป็นเรื่องยากขึ้นอย่างมาก
Deepfake ก่อให้เกิดความกังวลอย่างยิ่งในช่วงไม่กี่ปีที่ผ่านมา โดยเฉพาะความสามารถในการสร้างวิดีโอและภาพที่ดูสมจริงซึ่งแสดงให้เห็นบุคคลกำลังแสดงออกหรือทำในสิ่งที่พวกเขาไม่เคยทำจริง จำนวนความพยายามหลอกลวงด้วย Deepfake ได้เพิ่มสูงขึ้นอย่างน่าตกใจถึง 3,000% ตั้งแต่ปี 2023 ทำให้เกิดความเสี่ยงในหลายมิติ ตั้งแต่การเผยแพร่ข้อมูลเท็จ การหลอกลวงทางการเงิน ไปจนถึงการทำลายชื่อเสียงของบุคคลและองค์กร
ผลกระทบที่ตามมาอาจรุนแรงถึงขั้นส่งผลต่อเศรษฐกิจ สังคม และเสถียรภาพการเมือง ดังนั้น ความสามารถการตรวจจับและแยกแยะสื่อเหล่านี้ จึงไม่ใช่เพียงทักษะทางเทคนิค แต่เป็นความจำเป็นเร่งด่วนสำหรับทุกคนในยุคข้อมูลข่าวสาร
การแพร่กระจายของ Deepfake ไม่ได้เป็นเพียงปัญหาทางเทคนิคที่จำกัดวงอยู่แค่การปลอมแปลงภาพหรือเสียง แต่ได้ขยายวงกว้างจนกลายเป็นปัญหาเชิงสังคมที่กัดกร่อนความไว้วางใจในข้อมูลดิจิทัลโดยรวมเมื่อ Deepfake ทำให้การแยกแยะระหว่างความจริงกับเรื่องแต่งทำได้ยากขึ้น ส่งผลถึงความเชื่อมั่นของผู้คนต่อแหล่งข้อมูลออนไลน์โดยทั่วไปก็ลดน้อยถอยลง ไม่ใช่แค่ความไม่เชื่อถือต่อ Deepfake ที่น่าสงสัยเท่านั้น แต่ยังรวมถึงข้อมูลอื่นๆ ที่พวกเขาพบเห็นในชีวิตประจำวันด้วย
ปรากฏการณ์นี้ส่งผลกระทบโดยตรงต่อการรับรู้ข่าวสาร การตัดสินใจในเรื่องต่างๆ และแม้กระทั่งความสัมพันธ์ระหว่างบุคคล เนื่องจากความสงสัยและความไม่แน่ใจจะกลายเป็นบรรทัดฐานใหม่ในการบริโภคสื่อ ดังนั้น ผลกระทบจึงขยายวงกว้างกว่าเพียงแค่การหลอกลวงรายบุคคล แต่เป็นการทำลายโครงสร้างพื้นฐานของความไว้วางใจ ซึ่งเป็นองค์ประกอบสำคัญของสังคมดิจิทัล
เราเริ่มเห็นการฉ้อโกงหลายกรณีที่มีการนำ Deepfake เข้ามาใช้ อาทิ เหตุการณ์ที่พนักงานฝ่ายการเงินของบริษัทข้ามชาติแห่งหนึ่งในฮ่องกงถูกหลอกให้โอนเงินจำนวนมหาศาลถึง 25 ล้านดอลลาร์สหรัฐ จากการเข้าร่วมประชุมทางวิดีโอ ซึ่งผู้เข้าร่วมประชุมทุกคนรวมถึงประธานเจ้าหน้าที่ฝ่ายการเงิน (CFO) ของบริษัท ล้วนเป็นบุคคลที่ถูกสร้างขึ้นด้วยเทคโนโลยี Deepfake สำหรับประเทศไทยก็มีกรณีที่มิจฉาชีพใช้ชื่อนักวิเคราะห์การลงทุนคนไทยท่านหนึ่งมาสร้าง Deepfake เพื่อแอบอ้างเชิญชวนให้นักลงทุนทำธุรกรรม
แต่แม้ว่า Deepfake จะเก่งเพียงใด ก็ยังไม่สมบูรณ์แบบเสมอไป และมักจะทิ้ง “ร่องรอย” หรือ “ข้อบกพร่อง” เล็กๆ น้อยๆ ไว้ให้เราได้จับสังเกต ซึ่งปัจจุบันมีเทคโนโลยีและเครื่องมือหลายประเภทที่สามารถช่วยในการตรวจจับ Deepfake โดยเครื่องมือเหล่านี้ส่วนหนึ่งก็ใช้ AI และการประมวลผลภาพหรือเสียงขั้นสูง เพื่อวิเคราะห์หาสัญญาณบ่งชี้ที่อาจมองไม่เห็นด้วยตาเปล่า
อย่างไรก็ตาม การสังเกตด้วยตาเปล่าและรู้ว่าจะต้องมองหาอะไร ก็ยังคงเป็นเกราะป้องกันเบื้องต้นที่สำคัญที่สุด โดยอาจสังเกตในประเด็นต่างๆ ดังนี้
ใบหน้าและดวงตา: จุดสังเกตที่ง่ายที่สุดมักจะอยู่บน “ใบหน้า” ลองสังเกตการแสดงอารมณ์ที่ดูแข็งทื่อหรือเกินจริง รอยยิ้มที่ไม่เป็นธรรมชาติ หรือผิวพรรณที่ดูเรียบเนียนผิดปกติจนเหมือนพลาสติก แต่จุดตายที่สำคัญที่สุดคือ “ดวงตา” Deepfake มักมีปัญหากับการกะพริบตาที่อาจจะดูช้าไป ถี่ไป หรือไม่กะพริบเลย แววตาอาจดูไร้ชีวิตชีวา หรือรูม่านตาทั้งสองข้างมีขนาดไม่เท่ากัน นอกจากนี้ ลองสังเกตรายละเอียดเล็กๆ น้อยๆ อย่างเส้นผมที่ดูไม่เป็นธรรมชาติ หรือฟันที่เรียงตัวสวยงามเกินจริง
มือ นิ้ว และสัดส่วนร่างกาย: จุดอ่อนสำคัญที่ AI มักพลาดบ่อยครั้งคือ “มือและนิ้วมือ” เราอาจเห็นภาพที่ AI สร้างขึ้นมีจำนวนนิ้วมือผิดปกติ เช่น มี 6 นิ้ว หรือมีนิ้วที่บิดงอในลักษณะที่เป็นไปไม่ได้ ซึ่งสะท้อนให้เห็นข้อจำกัดของ AI ที่ยังไม่เข้าใจโครงสร้างสามมิติที่ซับซ้อนของร่างกายมนุษย์อย่างแท้จริง รวมถึงสัดส่วนของร่างกายโดยรวมที่อาจดูผิดเพี้ยนไป เช่น ศีรษะไม่สมส่วนกับลำตัว
แสง เงา และองค์ประกอบรอบข้าง: ลองมองไปที่ “องค์ประกอบรอบข้าง” ด้วยแสงและเงาเป็นอีกหนึ่งสิ่งที่สร้างเลียนแบบได้ยาก ลองดูว่าเงาตกกระทบไปในทิศทางที่ถูกต้องตามแหล่งกำเนิดแสงหรือไม่ แสงสะท้อนบนแว่นตาหรือในกระจกดูสมจริงหรือเปล่า บ่อยครั้งที่พื้นหลังของภาพ Deepfake อาจมีรายละเอียดที่บิดเบี้ยว วัตถุแปลกปลอม หรือแม้กระทั่งตัวหนังสือบนป้ายต่างๆ ที่อ่านไม่ออกหรือพันกันยุ่งเหยิง
เสียงและการขยับปาก: หากเป็นวิดีโอการ “ฟัง” ก็มีความสำคัญไม่แพ้การมอง ลองสังเกตว่าเสียงพูดตรงกับการขยับปากหรือไม่ น้ำเสียงฟังดูราบเรียบเป็นหุ่นยนต์เกินไปหรือเปล่า หรือมีเสียงรบกวนรอบข้างที่ไม่สอดคล้องกับสถานที่ในวิดีโอ บางครั้งการขาดเสียงเล็กๆ น้อยๆ ที่ควรจะมีตามธรรมชาติ เช่น เสียงลมหายใจ ก็เป็นสัญญาณที่บ่งบอกได้เช่นกัน
มองหา "กลุ่มของความผิดปกติ": แทนที่จะมองหาข้อผิดพลาดใหญ่ๆ เพียงจุดเดียว Deepfake ที่ซับซ้อนอาจแก้ไขจุดบกพร่องใหญ่ๆ ไปแล้ว แต่การจะทำให้ทุกองค์ประกอบสมบูรณ์แบบพร้อมกันนั้นเป็นเรื่องยากมาก ดังนั้น หากเรารู้สึกว่ามีรายละเอียดเล็กๆ น้อยๆ หลายอย่างดูไม่เข้าที่เข้าทางพร้อมกัน เช่น ผิวที่เรียบเกินไป บวกกับแสงเงาที่ดูแปลกๆ และการกะพริบตาที่ผิดจังหวะเล็กน้อย ความรู้สึกตะหงิดใจนี้อาจเป็นสัญญาณเตือนที่ดีที่สุด
ท้ายที่สุด เราอาจต้องกลับมาคิดวิเคราะห์ถึงความเป็นไปได้ว่าเรื่องราวนั้นควรเกิดขึ้นจริงไหม บุคคลในวิดีโอน่าจะทำอย่างนั้นจริงหรือ หรือเหตุการณ์ในวิดีโอดังกล่าวน่าจะเกิดขึ้นจริงหรือไม่ การคิดเชิงวิพากษ์ (Critical Thinking) และการไม่หลงเชื่ออะไรง่ายๆ ยังคงเป็นสิ่งสำคัญที่สุด
ในวันที่เทคโนโลยีก้าวไปข้างหน้าอย่างไม่หยุดยั้ง ทักษะการตั้งคำถาม การสังเกตอย่างมีวิจารณญาณ และการเชื่อในสัญชาตญาณของตัวเราเอง อาจกลายเป็นเครื่องมือที่ทรงพลังที่สุดในการนำทางและใช้ชีวิตในโลกยุคใหม่นี้ได้อย่างปลอดภัยและรู้เท่าทัน