โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

Deepfake Porn – หนังโป๊สลับหน้า เมื่อเทคโนโลยีทำร้ายผู้หญิง

The101.world

เผยแพร่ 18 ต.ค. 2564 เวลา 06.07 น. • The 101 World

เมื่อประมาณเดือนสองเดือนก่อนถ้าใช้เวลาอยู่บนเฟซบุ๊กจะเห็นเพื่อนหลายคนกลายร่างเป็นดาราเกาหลี ใส่ชุดราตรีเดินตามท้องถนน ใช้ชีวิตหรูหรายามค่ำคืน เดินตามห้าง หรือนั่งรถหรูราคาคันหลายสิบล้าน แน่นอนว่าในชีวิตจริงเพื่อนๆ ของผมที่อยู่ในวิดีโอเหล่านั้นกำลังใช้ชีวิตอยู่ที่บ้าน เลี้ยงลูก นั่งดูเน็ตฟลิกซ์ ต้มมาม่าทานตามชีวิตคนปกติทั่วไป สิ่งที่เกิดขึ้นคือการใช้แอปพลิเคชันที่มีเทคโนโลยี deepfake ซึ่งสามารถสลับหน้าผู้ใช้งานกับคนต้นแบบในวิดีโอได้อย่างแนบเนียน

แน่นอนว่าแอปพลิเคชันเหล่านี้ถูกสร้างขึ้นมาจากหลากหลายเหตุผล บ้างก็เพื่อความสนุกสนาน บ้างหลอกเอาข้อมูล บ้างก็สร้างคอนเทนต์สำหรับโจมตีคนอื่น แต่ที่ดูเกินเลยและสร้างความเสียหายต่อบุคคลอื่นคือการสร้าง 'คลิปโป๊' ที่ร่างกายเป็นของนักแสดง แต่ใบหน้าเป็นของผู้หญิงคนอื่น 

บางคนอาจคิดว่าจะมีใครมาสร้างแอปพลิเคชันที่เลวร้ายและทำลายชื่อเสียงของคนอื่นแบบนี้จริงๆ เหรอ คำตอบคือมีครับ ในรายงานจากเว็บไซต์ MIT Technology Review เขียนอธิบายเอาไว้ว่ามีแอปพลิเคชันหนึ่งชื่อ Y

“มันใช้งานง่ายมาก หลังจากอัพโหลดรูปใบหน้าของคนคนหนึ่งไปเรียบร้อยแล้ว เว็บไซต์ก็จะเปิดรายการหนังโป๊ขึ้นมาให้เลือก ส่วนใหญ่แล้วเป็นผู้หญิง หลังจากนั้นผู้ใช้งานก็สามารถเลือกคลิปเพื่อสร้างวิดีโอตัวอย่างว่าถ้าสลับหน้าแล้วจะออกมาอย่างไรภายในเวลาไม่กี่นาที หลังจากนั้นก็จ่ายเงินเพื่อดาวน์โหลดเวอร์ชันเต็ม”

Y ก็ใช้เทคโนโลยี deepfake เช่นเดียวกัน ซึ่งไม่ว่าใครก็ตามที่รู้ว่าภาพของตัวเองถูกนำไปใช้เพื่อผลิตหนังโป๊แบบนี้ ล้วนรู้สึกว่ามันสร้างความเสียหายต่อสภาพจิตใจเป็นอย่างมาก

ถ้าย้อนกลับไปสักหน่อยถึงประวัติของเทคโนโลยีนี้ deepfake เป็นแขนงหนึ่งของ AI (Artificial Intelligence) ที่สามารถสร้างคอนเทนต์ได้จากตัวอย่างจริงนั้นเอง คำว่า ‘deepfake” ถูกกล่าวถึงครั้งแรกบนเว็บไซต์ Reddit ที่มาจากการรวมกันของ 'deep learning' กับ 'fake'

deep learning คือซอฟต์แวร์ที่ตัดสินใจและสร้างผลลัพธ์จากพื้นฐานของประสบการณ์ที่ผ่านมาแล้ว เหมือนสมองมนุษย์ที่เชี่ยวชาญทางด้านใดด้านหนึ่ง ยกตัวอย่างง่ายๆ อย่างรถยนต์ไร้คนขับของ Tesla นั้นใช้ข้อมูลจากการขับในอดีตมาใช้เพื่อการตัดสินใจและทำงาน ส่วน deepfake ก็ใช้ deep learning เพื่อสร้างคอนเทนต์ที่เหมือนจริงโดยการสลับใบหน้าและแปลงเสียงในเวลาเดียวกัน (ใช่ครับ เสียงด้วย) ใครเคยเห็นคลิปของทอม ครูซบนติ๊กต็อกที่ใช้ deepfake บ้างครับ ถ้ายังไม่เคย ลองคลิกดูได้ที่คลิปนี้

https://www.youtube.com/watch?v=lhi31-pOz5M

ตอนดูครั้งแรกแม้จะรู้ว่าเป็นของปลอม แต่ก็ยังอดตั้งคำถามในหัวไม่ได้เลยว่า “เอ๊ะ…หรือว่าเป็นของจริงกันนะ?” เพราะผลลัพธ์ที่ออกมานั้นเหมือนจริงมากชนิดที่ว่าแยกออกยากมากๆ ซึ่งโดยคอนเซ็ปต์ของเทคโนโลยีแล้วนั้น เรื่องนี้น่าสนุกและน่าตื่นเต้น แต่เมื่อมันถูกเอาไปใช้ในทางที่ผิดอย่างการปลอมเป็นคนอื่นเพื่อแสวงหาผลลัพธ์หรือเพื่อก่อความเข้าใจผิด (เช่นโดนัล ทรัมป์ตัวปลอมประกาศสงครามกับรัสเซีย) หรือสร้างหนังโป๊โดยใช้ใบหน้าของคนอื่นทำให้เสียหายทั้งภาพลักษณ์และจิตใจ (ตอนนี้กลายเป็นสัดส่วนของคอนเทนท์ที่ถูกสร้างโดยเทคโนโลยีนี้มากที่สุดด้วย) ย่อมไม่ใช่เรื่องน่าสนุก ลองคิดดูว่าถ้ามีคนไม่ประสงค์ดีเอาภาพของคุณไปสร้างคลิปโป๊มาแบล็กเมล์คุณว่าจะส่งให้หัวหน้างานดู ถ้าคุณไม่ทำตามข้อตกลงบางอย่าง หรืออยู่ๆ พอไปค้นหาชื่อคุณแล้วกลับเจอคลิปโป๊ที่คุณรู้ว่าไม่ใช่คุณ แต่โลกไม่ได้รู้ไปกับคุณด้วย หรืออาจจะเป็นคนที่คุณรู้จัก น้องสาว พี่สาว เพื่อน ฯลฯ สิ่งเหล่านี้ล้วนเกิดขึ้นได้ทั้งนั้น

หลายคนอาจคิดว่าเรื่องเหล่านี้เกิดขึ้นกับดาราและคนมีชื่อเสียงเท่านั้น แต่ความจริงคือทุกคนมีโอกาสตกเป็นเหยื่อได้ไม่ต่างกัน

มีเคสหนึ่งของนักเขียนหญิงชื่อเฮเลน มอร์ต (Helen Mort) ที่เพื่อนมาบอกเธอว่ามีเว็บไซต์ที่มีภาพโป๊ของเธอบนนั้น แน่นอนเฮเลนรู้ว่าไม่ใช่ภาพจริงอย่างแน่นอน เพราะเธอไม่เคยแชร์หรือส่งต่อภาพเหล่านี้ให้ใคร ดังนั้นจึงเป็นไปไม่ได้เลยว่าเป็นภาพหลุดของเธอ อาจจะเป็นดาราเอวีที่หน้าตาคล้ายกัน แต่ไม่ใช่ ภาพนั้นเป็นใบหน้าของเธออย่างชัดเจน

สิ่งที่เกิดขึ้นก็คือมีใครบางคนเอารูปของเธอจากโซเชียลมีเดีย (ซึ่งตอนนี้เธอลบไปแล้ว) อัปโหลดขึ้นเว็บโป๊แล้วยุให้ผู้ใช้งานคนอื่นๆ ลองทำภาพโป๊ของเธอออกมาโดยใช้ deepfake แม้ว่าบางอันดูออกได้ว่าปลอม แต่ก็มีหลายอันดูเหมือนจริงจนน่าตกใจ

แต่ไม่ว่าอย่างไรก็ตามเธอทั้งโกรธและรู้สึกว่าตัวเองถูกล่วงละเมิดอย่างมาก เธอให้สัมภาษณ์กับ MIT Technology Review ว่า “มันทำให้คุณรู้สึกเหมือนไร้เรี่ยวแรง เหมือนโดนกระทำ ถูกลงโทษในฐานะผู้หญิงที่กล้าพูดสิ่งที่ตัวเองคิดออกมาในที่สาธารณะ นั่นคือคำอธิบายที่ชัดเจนที่สุด เหมือนกับจะบอกว่า ‘ดูสิ เราทำแบบนี้กับคุณได้นะ’”

แน่นอนว่าเฮเลนไม่ใช่ผู้หญิงคนเดียวที่ตกเป็นเหยื่อของการล่วงละเมิดแบบนี้ ในการพูดบนเวที TED Talk ปี 2018 โนเอลล์ มาร์ติน (Noelle Martin) เล่าถึงประสบการณ์ของเธอว่าหลังจากที่ใช้ Google Image Search หาภาพของตัวเอง เธอก็ไปเจอรูปของเธอที่ถูกดัดแปลงด้วยเทคโนโลยีแล้วโพสต์ไว้บนเว็บโป๊ต่างๆ ทั่วอินเทอร์เน็ต เธอใช้เวลาหลายปีในการพยายามต่อสู้ด้วยตัวเอง ส่งอีเมลไปหาเว็บไซต์ต่างๆ แต่ก็ไม่เป็นผล สุดท้ายเธอเลยออกมาพูดถึงสิ่งที่เกิดขึ้นในที่สาธารณะจนมีคนแชร์เยอะขึ้นเรื่อยๆ และพยายามเปลี่ยนแปลงตัวกฎหมายเพื่อเอาโทษคนที่กระทำผิดเหล่านี้แทน

เธอบอกว่า “ขณะที่ฉันกำลังพูดอยู่นี้ มีผู้หญิงอีกหลายพันหลายหมื่นคนที่กำลังตกเป็นเหยื่อโดยไม่รู้ตัวเลยด้วยซ้ำ”

เว็บไซต์ Sensity AI ผู้เชี่ยวชาญเรื่องเทคโนโลยี deepfake คาดการณ์ว่าจำนวนวิดีโอที่ถูกสร้างขึ้นด้วยวิธีนี้จะเยอะมากขึ้นเรื่อยๆ ในปีนี้น่าจะสูงถึง 180,000 วิดีโอ และ 96% จะเป็นคอนเทนต์เกี่ยวกับเรื่องทางเพศทั้งสิ้น

Adam Dodge ผู้ก่อตั้งองค์กรไม่แสวงหากำไรที่จัดการกับการละเมิดทางเทคโนโลยีเป็นห่วงและกังลเกี่ยวกับเรื่องนี้อย่างมาก เขากล่าวในการสัมภาษณ์ว่า “มันช่างเป็นเครื่องมือที่สมบูรณ์แบบสำหรับคนที่ต้องการใช้อำนาจและควบคุมเหยื่อ นี่เป็นประเด็นปัญหาความรุนแรงต่อผู้หญิงอย่างชัดเจน”

หลายคนอาจจะสงสัยว่า แล้วแบบนี้จะมีอะไรที่ทำเพื่อต่อกรหรือป้องกันได้บ้าง? คำตอบคือ ค่อนข้างท้าทายทีเดียว ไม่ว่าเรื่องระบบโครงสร้างทางกฎหมายหรือการจำกัดการเข้าถึงเทคโนโลยี ทั้งสองทางต่างก็ไม่ง่ายทั้งนั้น 

อย่างแรก เรื่องกฎหมาย เป็นไปได้ยากที่จะแบนเทคโนโลยี deepfake ไปเลย เพราะมันสามารถนำมาใช้ให้เกิดประโยชน์ได้ เช่น การปกปิดตัวพยานบุคคลในการให้ปากคำ ปกป้องความเป็นส่วนตัวด้วยการสลับใบหน้า โดยที่ยังสามารถแสดงอารมณ์ความรู้สึกได้อยู่ โดยคนที่เห็นไม่ต้องทราบตัวตนที่แท้จริง หรือเราเห็น deepfake ถูกใช้เพื่อให้คนรักที่จากโลกนี้ไปแล้วสามารถขยับหรือพูดผ่านวิดีโอได้ ก็ถือเป็นการใช้งานที่ไม่เลวร้ายอะไรนัก

อีกอย่างหนึ่งคือพอเกิดกรณีแบบนี้ขึ้นแล้วไม่มีคนมารายงาน ก็ยากที่จะเปลี่ยนแปลงข้อกฎหมาย เพราะไม่รู้ถึงขอบเขตความเสียหายของเทคโนโลยีที่เกิดขึ้น ต้องมีหลักฐานและผลที่ตามมาด้วย ซึ่งนั่นก็คือสิ่งที่เฮเลนและโนเอลล์กำลังพยายามทำอยู่ แม้ทุกครั้งจะโดนแซะหรือโดนตอกกลับมาว่าพวกเธอเองรึเปล่าที่แต่งตัวล่อแหลมหรือยั่วยุให้เกิดเรื่องเหล่านี้ขึ้น เรียกอีกอย่างว่าเป็นการโทษเหยื่อและพวกเขาสมควรได้รับสิ่งที่เกิดขึ้นแล้ว (victim blaming/slut shamed) 

แน่นอนว่าการออกมาพูดเรื่องนี้ไม่ใช่เรื่องง่าย ด้วยความกล้าหาญของผู้หญิงที่ออกมาพูดและเรียกร้องความถูกต้อง ตอนนี้กฎหมายเริ่มเป็นรูปเป็นร่าง มีการขอรายชื่อบนเว็บไซต์ change.org เพื่อสร้างข้อบังคับที่รัดกุมมากขึ้นเกี่ยวกับเรื่องนี้

การจัดการเกี่ยวกับเทคโนโลยีเหล่านี้ต้องพึ่งพาหลายๆ ส่วน โชคดีที่บริษัทใหญ่ๆ อย่าง Google หรือ Amazon พยายามท้าทายให้ผู้เชี่ยวชาญทางด้านซอฟต์แวร์ประดิษฐ์นวัตกรรมเพื่อตรวจสอบ deepfake video ซึ่งวิธีการนี้ หน้าที่ของการค้นหาและต่อสู้ก็จะถูกวางไว้บนแพลตฟอร์มใหญ่ๆ เอง ซึ่งถ้าทำสำเร็จ คนที่เป็นเหยื่อก็ไม่ต้องไล่ตามวิดีโอของตัวเองและติดต่อเว็บไซต์หลายร้อยแห่งเพื่อเอามันออก แต่เป็นหน้าที่ของเว็บไซต์และแพลตฟอร์มต่างๆ เองที่ควรช่วยดูแลและตรวจสอบพื้นที่เหล่านี้ให้ผู้ใช้งานรู้สึกปลอดภัย

แต่ไม่มีใครรู้หรอกว่าเมื่อไหร่จะไปถึงตรงนั้น ตราบใดที่ยังไม่มีคำตอบหรือหนทางต่อกรกับเรื่องนี้อย่างแน่นอน บัญชีโซเชียลมีเดียต่างๆ ก็ควรเก็บเป็น private ไว้จะดีกว่า

====================

อ้างอิง

https://toonme.com/

In the battle against deepfakes, AI is being pitted against AI

Deepfake porn is ruining women’s lives. Now the law may finally ban it.

Deep learning vs. machine learning: a simple way to learn the difference

Tighten regulation on taking, making and faking explicit images

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...