ใช้เอไอเจนภาพนู้ดคนอื่น นี่คิดแล้วเหรอ? เข้าใจ ‘Intimate Image Abuse’ เมื่อการล่วงละเมิดทางเพศถูกกระทำผ่านเอไอ
ภาพนู้ดจากเอไอไม่เห็นเป็นไรเลย ไม่ใช่รูปจริงสักหน่อย
นับตั้งแต่มีเอไอ ชีวิตหลายคนก็สะดวกสบายมากขึ้นกว่าเดิม แต่หลายครั้งเจ้าเอไอก็ไม่ได้มาพร้อมกับคู่มือการใช้งานที่เหมาะสม แถมยังไม่มีมาตรการป้องกันความเสียหาย ทำให้เครื่องมือเหล่านี้แทนที่จะนำไปใช้อย่างสร้างสรรค์ กลับถูกนำไปใช้ละเมิดผู้อื่นโดยไม่ยินยอม อย่างการใช้เอไอมาเจนเนอเรตภาพนู้ดโดยที่เจ้าตัวไม่ได้ร้องขอ ด้วยคำสั่งเพียงไม่กี่คำ
แม้จะบอกว่าการเจนภาพไม่ใช่ภาพจริง แต่สิ่งนี้ก็สร้างความเจ็บปวดได้ไม่ต่างจาการปล่อยภาพโป๊เปลือยของเจ้าตัว ซึ่งส่งผลกระทบกับจิตใจของเหยื่อได้ไม่ต่างกัน เราจึงควรรับรู้ถึงอันตรายจากการใช้เอไอเจนภาพโดยไม่ยินยอม รวมถึงเข้าใจความรุนแรงของการกระทำเหล่านี้ เพื่อไม่หลงไปกับความสนุกแค่ปลายนิ้วคลิก
Intimate Image Abuse ความรุนแรงจากการปล่อยภาพส่วนตัว
แม้ทุกวันนี้เราจะโพสต์รูปของตัวเองลงบนแพลตฟอร์มออนไลน์เป็นเรื่องปกติ ทั้งรูปประจำวันทั่วไป รูปเซลฟี่ หรือรูปชุดว่ายน้ำ ถึงจะดูหวาบหวิว แต่ทั้งหมดนั้นก็มาจากความตั้งใจของตัวเอง ซึ่งถือเป็นคนละเรื่องกับการถูกเผยแพร่ภาพจากคนอื่นอย่างสิ้นเชิง
ภาพส่วนตัวที่ถูกปล่อยจากคนอื่นโดยที่เจ้าตัวไม่ยินยอม ไม่ใช่แค่เรื่องสนุกๆ แต่ยังนับว่าเป็นความรุนแรงอย่างหนึ่งด้วย เรียกว่า ‘การล่วงละเมิดด้วยภาพส่วนตัว’ หรือ ‘Intimate Image Abuse’ หมายถึงการที่มีคนเผยแพร่หรือข่มขู่ว่าจะเผยแพร่ ภาพถ่ายหรือวิดีโอส่วนตัว ไม่ว่าจะเป็นภาพอวัยวะสงวน ภาพสวมชุดชั้นใน รวมถึงภาพกิจกรรมทางเพศ โดยไม่ได้รับความยินยอม
ภาพเหล่านั้นไม่ได้หมายถึงแค่ภาพจริงของเจ้าตัวเท่านั้น แต่ยังรวมไปถึงภาพหรือวิดีโอที่ตัดต่อหรือปลอมแปลงจากเอไอด้วย อย่าง ดีปเฟก (deepfake) หรือเทคโนโลยีจากการประมวลผลของเอไอ ที่สามารถสร้างภาพและเสียงปลอมให้เหมือนกับเจ้าตัวมากที่สุด ความน่ากลัวคือเราอยากให้คนนั้นพูดอะไร หรือทำท่าแบบไหน ก็สามารถทำได้ง่ายๆ แม้เจ้าตัวจะไม่ได้ทำหรือพูดแบบนั้นจริงๆ ก็ตาม
ก่อนหน้านี้ดีปเฟกไม่ได้ทำได้ง่ายเท่าปัจจุบัน ดังนั้นที่ผ่านมาเป้าหมายหลักจึงมักเป็นคนดังหรือบุคคลสาธารณะ เพราะต้องใช้ภาพหลายร้อยภาพเพื่อสร้างดีปเฟก 1 ชิ้น แต่ปัจจุบันดีปเฟกพัฒนาขึ้นและทำได้ง่ายดายกว่าเดิม เพียงแค่มีภาพเดียวก็สามารถสร้างภาพปลอมได้ ทำให้ทุกวันนี้เหยื่อกลายเป็นใครก็ได้ ไม่ว่าจะเป็นคนใกล้ตัว หรือแม้แต่ตัวเราเอง
เมื่อภาพปลอมก็เสียหายได้ไม่ต่างจากภาพจริง
ความรุนแรงจากการสร้างภาพโป๊ปลอมๆ เริ่มขยับมาใกล้ตัวเรามากขึ้น เมื่อเร็วๆ นี้มีคนที่กำลังได้รับผลกระทบจากการปล่อยภาพนู้ดปลอมแปลงนี้ทั่วแอปพิลเคชั่น X (Twitter) จากรายงานของ The Guardian สื่อจากอังกฤษ อ้างอิงข้อมูลจาก AI Forensics องค์กรไม่แสวงหาผลกำไรในปารีส ได้วิเคราะห์โพสต์ 50,000 ชิ้น และภาพอีก 20,000 ภาพ ที่สร้างโดย Grok หรือเอไอบนแพลตฟอร์ม X
ผลปรากฏว่าภาพกว่าครึ่งหนึ่ง เป็นภาพที่สวมชุดชั้นในหรือบิกินี่ ด้วยคำสั่งต่างๆ เช่น ‘ถอดออก’ ‘บิกินี่’ และ ‘เสื้อผ้า’ เป็นจำนวนมาก ส่วนคนที่ตกเป็นเหยื่อจะเป็นใครไปไม่ได้ นอกจากผู้หญิง ซึ่งส่วนใหญ่เป็นผู้หญิงอายุต่ำกว่า 30 ปี และราว 2% เป็นภาพของผู้เยาว์ ที่อายุไม่ถึง 18 ปีด้วยซ้ำ
จากข่าวนี้ก็สะท้อนให้เห็นว่าการใช้เอไอ ที่เข้าถึงง่ายและไม่มีการควบคุมการใช้งานอย่างเหมาะสม แง่หนึ่งก็อาจเป็นการเบลอเส้นระหว่างศีลธรรมให้พร่าลง เพราะเมื่อใครๆ สามารถใช้เครื่องมือนี้ได้ ก็ย่อมเปิดโอกาสให้คนไม่หวังดีนำไปใช้ในทางที่ผิดง่ายขึ้น เพียงแค่ขยับนิ้วไม่กี่ทีเท่านั้นเอง
แม้เราจะบอกว่าแค่เป็นภาพที่เจนขึ้นมา ไม่ใช่ภาพจริงสักหน่อย แต่ปัญหาคือเจ้าเอไอ นับวันก็ยิ่งพัฒนาให้เหมือนจริงมากขึ้นทุกที และใช่ว่าทุกคนจะสามารถแยกแยะได้ว่าภาพไหนคือภาพจริงหรือภาพปลอมได้เท่ากัน หากมีคนนำภาพไปบิดเบือนความจริงและมีคนหลงเชื่อ ก็อาจทำให้เหยื่อได้รับผลกระทบทั้งกับจิตใจและชื่อเสียง แม้จะเป็นภาพปลอมก็ตาม
จากงานวิจัยเกี่ยวกับความรุนแรงทางจิตใจในการล่วงละเมิดทางเพศโดยใช้ภาพ (IBSA) ที่ตีพิมพ์ในวารสาร healthcare ปี 2025 ชี้ว่าภาพเหล่านี้ส่งผลต่อเหยื่อหลายด้าน ทั้งด้านความสัมพันธ์ ที่ไม่สามารถไว้วางใจหรือเริ่มความสัมพันธ์กับใครใหม่ได้ ด้านอารมณ์ ที่ทำให้เกิดความวิตกกังวล ภาวะซึมเศร้า รู้สึกอับอาย เพราะถูกลดทอนศักดิ์ศรีต่อหน้าผู้คน นำไปสู่การแยกตัว ไม่สุงสิงกับใคร หรือผลที่ร้ายแรงที่สุดหากไม่ได้รับการเยียวยา เหยื่อก็อาจมีความคิดที่จะจบชีวิตลงได้
ดังนั้นประเด็นจึงอาจไม่ใช่ว่าเป็นภาพจริงหรือภาพปลอม แต่เมื่อภาพเหล่านั้นถูกเผยแพร่ลงบนอินเทอร์เน็ตและมีคนหลงเชื่อ สิ่งนี้ก็อาจสร้างบาดแผลที่ติดอยู่ในใจเหยื่อไปอีกนานแสนนาน
ปัญหาอยู่ที่ใคร ผู้ใช้หรือเทคโนโลยี?
สิ่งที่ทำให้ประเด็นปลอมแปลงภาพส่วนตัวเป็นปัญหาที่เราต้องให้ความสำคัญ ก็เพราะผู้พัฒนาเองไม่ได้มีมาตรการจัดการอย่างเหมาะสม เมื่อมีผู้ใช้พิมพ์คำสั่งขอให้ถอดเสื้อผ้า หรือเปลี่ยนให้เจ้าของภาพใส่บิกินี่ เจ้าเอไอก็ทำตามอย่างว่าง่าย แถมยังไม่ได้จัดการลงโทษกับผู้ใช้ที่พิมพ์คำสั่งแปลกๆ แบบนี้ด้วย
แม้ว่าจะมีกระแสต่อต้านจากผู้คนทั่วโลกเกี่ยวกับภาพล่วงละเมิดผู้หญิงและเด็กเริ่มลุกลามขึ้น แต่แพลตฟอร์มอย่าง X ก็ยังทำได้เพียงจำกัดการเจนภาพเอไอ ไว้เฉพาะคนที่สมัครแบบพรีเมียมเท่านั้น ซึ่งหมายความว่าผู้คนก็ยังสามารถสร้างภาพได้อยู่ เพียงแต่จำกัดกลุ่มคนให้เล็กลงเท่านั้น (แถมยังต้องเสียเงินให้แพลตฟอร์มด้วย)
นอกจากนี้แม้โฆษกของ X จะออกมายืนยันว่าจะลบเนื้อหาและระงับบัญชีที่เกี่ยวข้องกับสื่อล่วงละเมิดทางเพศเด็ก (CSAM) แต่ก็ไม่ได้การันตีว่าจะไม่มีคนใช้เครื่องมือนี้ ท้ายที่สุดเจ้าเอไอ ก็ยังสามารถสร้างภาพปลอมเหล่านี้ได้อยู่ดี
อย่างไรก็ตาม ถึงแม้เอไอจะเป็นเครื่องมือที่ทำให้การล่วงละเมิดทางเพศยังคงอยู่ แต่ก็คงไม่ถูกต้องนักหากเรากล่าวโทษเทคโนโลยีเพียงอย่างเดียว เพราะถึงยังไงมันก็เป็นแค่เครื่องมือ ใช่ว่าจู่ๆ มันสร้างภาพเหล่านี้ขึ้นมาด้วยตัวเองซะที่ไหน แต่สิ่งที่ทำให้เครื่องมือนี้น่ากลัวมาจากฝีมือของผู้ใช้งานต่างหาก ว่าจะนำมันไปใช้ทางที่ผิด หรือล่วงละเมิดคนอื่นหรือเปล่า
ดังนั้น ทางออกที่เราพอทำได้จึงอาจเป็นการใช้อย่างระวังไม่ให้ไปละเมิดสิทธิคนอื่น ขณะเดียวกันก็ต้องช่วยส่งเสียงไปให้ถึงผู้พัฒนาเอไอ ให้มีกฎและแนวทางป้องกันการสร้างดีปเฟก รวมถึงเรียกร้องให้แพลตฟอร์มมีระบบที่รวดเร็วในการตรวจสอบและลบภาพส่วนตัวที่ถูกเผยแพร่โดยไม่ยินยอมจากเจ้าตัว ไม่ว่าจะเป็นภาพจริงหรือปลอมก็ตาม
นอกจากนี้หากเราพบเห็นรูปเหล่านี้ก็อย่านิ่งเฉย อย่าลืมกดรายงานดีปเฟกที่เผยแพร่โดยไม่ยินยอม และหาทางพูดคุยเกี่ยวกับปัญหานี้กับคนรอบข้างให้มากที่สุด เพื่อส่งสัญญาณเตือนไม่ให้ใครตกเป็นเหยื่ออีก
เพราะอย่าลืมว่าภาพเหล่านั้นไม่ใช่วัตถุทางเพศที่จะทำยังไงก็ได้ แต่พวกเขาคนที่มีชีวิตจิตใจเหมือนกัน
อ้างอิงจาก
Graphic Designer: Sutanya Phattanasitubon
Editorial Staff: Runchana Siripraphasuk