โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

ไลฟ์สไตล์

ใช้เอไอเจนภาพนู้ดคนอื่น นี่คิดแล้วเหรอ? เข้าใจ ‘Intimate Image Abuse’ เมื่อการล่วงละเมิดทางเพศถูกกระทำผ่านเอไอ

The MATTER

อัพเดต 4 ชั่วโมงที่ผ่านมา • เผยแพร่ 2 ชั่วโมงที่ผ่านมา • Mental Health

ภาพนู้ดจากเอไอไม่เห็นเป็นไรเลย ไม่ใช่รูปจริงสักหน่อย

นับตั้งแต่มีเอไอ ชีวิตหลายคนก็สะดวกสบายมากขึ้นกว่าเดิม แต่หลายครั้งเจ้าเอไอก็ไม่ได้มาพร้อมกับคู่มือการใช้งานที่เหมาะสม แถมยังไม่มีมาตรการป้องกันความเสียหาย ทำให้เครื่องมือเหล่านี้แทนที่จะนำไปใช้อย่างสร้างสรรค์ กลับถูกนำไปใช้ละเมิดผู้อื่นโดยไม่ยินยอม อย่างการใช้เอไอมาเจนเนอเรตภาพนู้ดโดยที่เจ้าตัวไม่ได้ร้องขอ ด้วยคำสั่งเพียงไม่กี่คำ

แม้จะบอกว่าการเจนภาพไม่ใช่ภาพจริง แต่สิ่งนี้ก็สร้างความเจ็บปวดได้ไม่ต่างจาการปล่อยภาพโป๊เปลือยของเจ้าตัว ซึ่งส่งผลกระทบกับจิตใจของเหยื่อได้ไม่ต่างกัน เราจึงควรรับรู้ถึงอันตรายจากการใช้เอไอเจนภาพโดยไม่ยินยอม รวมถึงเข้าใจความรุนแรงของการกระทำเหล่านี้ เพื่อไม่หลงไปกับความสนุกแค่ปลายนิ้วคลิก

Intimate Image Abuse ความรุนแรงจากการปล่อยภาพส่วนตัว

แม้ทุกวันนี้เราจะโพสต์รูปของตัวเองลงบนแพลตฟอร์มออนไลน์เป็นเรื่องปกติ ทั้งรูปประจำวันทั่วไป รูปเซลฟี่ หรือรูปชุดว่ายน้ำ ถึงจะดูหวาบหวิว แต่ทั้งหมดนั้นก็มาจากความตั้งใจของตัวเอง ซึ่งถือเป็นคนละเรื่องกับการถูกเผยแพร่ภาพจากคนอื่นอย่างสิ้นเชิง

ภาพส่วนตัวที่ถูกปล่อยจากคนอื่นโดยที่เจ้าตัวไม่ยินยอม ไม่ใช่แค่เรื่องสนุกๆ แต่ยังนับว่าเป็นความรุนแรงอย่างหนึ่งด้วย เรียกว่า ‘การล่วงละเมิดด้วยภาพส่วนตัว’ หรือ ‘Intimate Image Abuse’ หมายถึงการที่มีคนเผยแพร่หรือข่มขู่ว่าจะเผยแพร่ ภาพถ่ายหรือวิดีโอส่วนตัว ไม่ว่าจะเป็นภาพอวัยวะสงวน ภาพสวมชุดชั้นใน รวมถึงภาพกิจกรรมทางเพศ โดยไม่ได้รับความยินยอม

ภาพเหล่านั้นไม่ได้หมายถึงแค่ภาพจริงของเจ้าตัวเท่านั้น แต่ยังรวมไปถึงภาพหรือวิดีโอที่ตัดต่อหรือปลอมแปลงจากเอไอด้วย อย่าง ดีปเฟก (deepfake) หรือเทคโนโลยีจากการประมวลผลของเอไอ ที่สามารถสร้างภาพและเสียงปลอมให้เหมือนกับเจ้าตัวมากที่สุด ความน่ากลัวคือเราอยากให้คนนั้นพูดอะไร หรือทำท่าแบบไหน ก็สามารถทำได้ง่ายๆ แม้เจ้าตัวจะไม่ได้ทำหรือพูดแบบนั้นจริงๆ ก็ตาม

ก่อนหน้านี้ดีปเฟกไม่ได้ทำได้ง่ายเท่าปัจจุบัน ดังนั้นที่ผ่านมาเป้าหมายหลักจึงมักเป็นคนดังหรือบุคคลสาธารณะ เพราะต้องใช้ภาพหลายร้อยภาพเพื่อสร้างดีปเฟก 1 ชิ้น แต่ปัจจุบันดีปเฟกพัฒนาขึ้นและทำได้ง่ายดายกว่าเดิม เพียงแค่มีภาพเดียวก็สามารถสร้างภาพปลอมได้ ทำให้ทุกวันนี้เหยื่อกลายเป็นใครก็ได้ ไม่ว่าจะเป็นคนใกล้ตัว หรือแม้แต่ตัวเราเอง

เมื่อภาพปลอมก็เสียหายได้ไม่ต่างจากภาพจริง

ความรุนแรงจากการสร้างภาพโป๊ปลอมๆ เริ่มขยับมาใกล้ตัวเรามากขึ้น เมื่อเร็วๆ นี้มีคนที่กำลังได้รับผลกระทบจากการปล่อยภาพนู้ดปลอมแปลงนี้ทั่วแอปพิลเคชั่น X (Twitter) จากรายงานของ The Guardian สื่อจากอังกฤษ อ้างอิงข้อมูลจาก AI Forensics องค์กรไม่แสวงหาผลกำไรในปารีส ได้วิเคราะห์โพสต์ 50,000 ชิ้น และภาพอีก 20,000 ภาพ ที่สร้างโดย Grok หรือเอไอบนแพลตฟอร์ม X

ผลปรากฏว่าภาพกว่าครึ่งหนึ่ง เป็นภาพที่สวมชุดชั้นในหรือบิกินี่ ด้วยคำสั่งต่างๆ เช่น ‘ถอดออก’ ‘บิกินี่’ และ ‘เสื้อผ้า’ เป็นจำนวนมาก ส่วนคนที่ตกเป็นเหยื่อจะเป็นใครไปไม่ได้ นอกจากผู้หญิง ซึ่งส่วนใหญ่เป็นผู้หญิงอายุต่ำกว่า 30 ปี และราว 2% เป็นภาพของผู้เยาว์ ที่อายุไม่ถึง 18 ปีด้วยซ้ำ

จากข่าวนี้ก็สะท้อนให้เห็นว่าการใช้เอไอ ที่เข้าถึงง่ายและไม่มีการควบคุมการใช้งานอย่างเหมาะสม แง่หนึ่งก็อาจเป็นการเบลอเส้นระหว่างศีลธรรมให้พร่าลง เพราะเมื่อใครๆ สามารถใช้เครื่องมือนี้ได้ ก็ย่อมเปิดโอกาสให้คนไม่หวังดีนำไปใช้ในทางที่ผิดง่ายขึ้น เพียงแค่ขยับนิ้วไม่กี่ทีเท่านั้นเอง

แม้เราจะบอกว่าแค่เป็นภาพที่เจนขึ้นมา ไม่ใช่ภาพจริงสักหน่อย แต่ปัญหาคือเจ้าเอไอ นับวันก็ยิ่งพัฒนาให้เหมือนจริงมากขึ้นทุกที และใช่ว่าทุกคนจะสามารถแยกแยะได้ว่าภาพไหนคือภาพจริงหรือภาพปลอมได้เท่ากัน หากมีคนนำภาพไปบิดเบือนความจริงและมีคนหลงเชื่อ ก็อาจทำให้เหยื่อได้รับผลกระทบทั้งกับจิตใจและชื่อเสียง แม้จะเป็นภาพปลอมก็ตาม

จากงานวิจัยเกี่ยวกับความรุนแรงทางจิตใจในการล่วงละเมิดทางเพศโดยใช้ภาพ (IBSA) ที่ตีพิมพ์ในวารสาร healthcare ปี 2025 ชี้ว่าภาพเหล่านี้ส่งผลต่อเหยื่อหลายด้าน ทั้งด้านความสัมพันธ์ ที่ไม่สามารถไว้วางใจหรือเริ่มความสัมพันธ์กับใครใหม่ได้ ด้านอารมณ์ ที่ทำให้เกิดความวิตกกังวล ภาวะซึมเศร้า รู้สึกอับอาย เพราะถูกลดทอนศักดิ์ศรีต่อหน้าผู้คน นำไปสู่การแยกตัว ไม่สุงสิงกับใคร หรือผลที่ร้ายแรงที่สุดหากไม่ได้รับการเยียวยา เหยื่อก็อาจมีความคิดที่จะจบชีวิตลงได้

ดังนั้นประเด็นจึงอาจไม่ใช่ว่าเป็นภาพจริงหรือภาพปลอม แต่เมื่อภาพเหล่านั้นถูกเผยแพร่ลงบนอินเทอร์เน็ตและมีคนหลงเชื่อ สิ่งนี้ก็อาจสร้างบาดแผลที่ติดอยู่ในใจเหยื่อไปอีกนานแสนนาน

ปัญหาอยู่ที่ใคร ผู้ใช้หรือเทคโนโลยี?

สิ่งที่ทำให้ประเด็นปลอมแปลงภาพส่วนตัวเป็นปัญหาที่เราต้องให้ความสำคัญ ก็เพราะผู้พัฒนาเองไม่ได้มีมาตรการจัดการอย่างเหมาะสม เมื่อมีผู้ใช้พิมพ์คำสั่งขอให้ถอดเสื้อผ้า หรือเปลี่ยนให้เจ้าของภาพใส่บิกินี่ เจ้าเอไอก็ทำตามอย่างว่าง่าย แถมยังไม่ได้จัดการลงโทษกับผู้ใช้ที่พิมพ์คำสั่งแปลกๆ แบบนี้ด้วย

แม้ว่าจะมีกระแสต่อต้านจากผู้คนทั่วโลกเกี่ยวกับภาพล่วงละเมิดผู้หญิงและเด็กเริ่มลุกลามขึ้น แต่แพลตฟอร์มอย่าง X ก็ยังทำได้เพียงจำกัดการเจนภาพเอไอ ไว้เฉพาะคนที่สมัครแบบพรีเมียมเท่านั้น ซึ่งหมายความว่าผู้คนก็ยังสามารถสร้างภาพได้อยู่ เพียงแต่จำกัดกลุ่มคนให้เล็กลงเท่านั้น (แถมยังต้องเสียเงินให้แพลตฟอร์มด้วย)

นอกจากนี้แม้โฆษกของ X จะออกมายืนยันว่าจะลบเนื้อหาและระงับบัญชีที่เกี่ยวข้องกับสื่อล่วงละเมิดทางเพศเด็ก (CSAM) แต่ก็ไม่ได้การันตีว่าจะไม่มีคนใช้เครื่องมือนี้ ท้ายที่สุดเจ้าเอไอ ก็ยังสามารถสร้างภาพปลอมเหล่านี้ได้อยู่ดี

อย่างไรก็ตาม ถึงแม้เอไอจะเป็นเครื่องมือที่ทำให้การล่วงละเมิดทางเพศยังคงอยู่ แต่ก็คงไม่ถูกต้องนักหากเรากล่าวโทษเทคโนโลยีเพียงอย่างเดียว เพราะถึงยังไงมันก็เป็นแค่เครื่องมือ ใช่ว่าจู่ๆ มันสร้างภาพเหล่านี้ขึ้นมาด้วยตัวเองซะที่ไหน แต่สิ่งที่ทำให้เครื่องมือนี้น่ากลัวมาจากฝีมือของผู้ใช้งานต่างหาก ว่าจะนำมันไปใช้ทางที่ผิด หรือล่วงละเมิดคนอื่นหรือเปล่า

ดังนั้น ทางออกที่เราพอทำได้จึงอาจเป็นการใช้อย่างระวังไม่ให้ไปละเมิดสิทธิคนอื่น ขณะเดียวกันก็ต้องช่วยส่งเสียงไปให้ถึงผู้พัฒนาเอไอ ให้มีกฎและแนวทางป้องกันการสร้างดีปเฟก รวมถึงเรียกร้องให้แพลตฟอร์มมีระบบที่รวดเร็วในการตรวจสอบและลบภาพส่วนตัวที่ถูกเผยแพร่โดยไม่ยินยอมจากเจ้าตัว ไม่ว่าจะเป็นภาพจริงหรือปลอมก็ตาม

นอกจากนี้หากเราพบเห็นรูปเหล่านี้ก็อย่านิ่งเฉย อย่าลืมกดรายงานดีปเฟกที่เผยแพร่โดยไม่ยินยอม และหาทางพูดคุยเกี่ยวกับปัญหานี้กับคนรอบข้างให้มากที่สุด เพื่อส่งสัญญาณเตือนไม่ให้ใครตกเป็นเหยื่ออีก

เพราะอย่าลืมว่าภาพเหล่านั้นไม่ใช่วัตถุทางเพศที่จะทำยังไงก็ได้ แต่พวกเขาคนที่มีชีวิตจิตใจเหมือนกัน

อ้างอิงจาก

police.uk

theguardian.com

pmc.ncbi.nlm.nih.gov

nddsvc.org

manchestereveningnews.co.uk

Graphic Designer: Sutanya Phattanasitubon
Editorial Staff: Runchana Siripraphasuk

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...