โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

กรณีศึกษาด้านมืด AI ใช้ "ดีปเฟก" สวมรอย Taylor Swift

ประชาชาติธุรกิจ

อัพเดต 30 ม.ค. 2567 เวลา 05.10 น. • เผยแพร่ 30 ม.ค. 2567 เวลา 02.45 น.
Taylor Swift ในงาน 2019 Billboard Music Awards - REUTERS/Steve Marcus

ชวนสำรวจด้านมืดของ AI ผ่านการใช้ “ดีปเฟก” สวมรอยคนดังอย่าง “Taylor Swift” ด้านนักวิเคราะห์เผยความรุ่งเรืองของ AI ทำให้คอนเทนต์ดีปเฟกเพิ่มขึ้น 9 เท่า

วันที่ 30 มกราคม 2567 จากกรณีที่นักร้องสาวพ๊อปสตาร์ชื่อดังระดับโลก “เทย์เลอร์ สวิฟต์” (Taylor Swift) ถูกนำใบหน้าไปปลอมแปลงในสื่ออนาจารด้วยเทคโนโลยีดีปเฟก (Deepfake) หรือการใช้ AI สร้างตัวตนเสมือนจากลักษณะภายนอก สะท้อนให้เห็นถึงอีกด้านของการนำ AI ไปใช้อย่างไม่มีจริยธรรม

ซึ่งเนื้อหาดังกล่าวได้มีการนำไปเผยแพร่บน X (Twitter) จนสร้างความเสียหายให้กับนักร้องสาว และนำมาซึ่งความไม่พอใจของเหล่า “สวิฟตี้” (Swifty) แฟนคลับของเธอเป็นจำนวนมาก

เว็บไซต์ The Verge สื่อออนไลน์เกี่ยวกับเทคโนโลยีในสหรัฐรายงานว่า แม้ X จะมีกฎห้ามแชร์เนื้อหาที่ผ่านการสังเคราะห์และละเมิดสิทธิของผู้อื่นบนแพลตฟอร์ม แต่โพสต์ที่เกิดจากการใช้ดีปเฟกปลอมแปลงตัวตนของเทย์เลอร์กลับใช้เวลาในการลบออกถึง 17 ชั่วโมง หลังจากเผยแพร่ ซึ่งในขณะนั้นมีผู้เข้าชมไปแล้วมากกว่า 45 ล้านครั้ง

และนี่ไม่ใช่ครั้งแรกที่เทย์เลอร์ถูกนำใบหน้าและตัวตนไปใช้ในเทคโนโลยีดีปเฟก เนื่องจากรายงานของ Similarweb บริษัทติดตามปริมาณการใช้งานเว็บไซต์ ระบุว่า ในเดือน ธ.ค. 2566 มีวิดีโอดีปเฟกที่ใช้ตัวตนของนักร้องสาวบนเว็บไซต์ Mrdeepfakes เกือบ 500 รายการ

แต่ไม่ได้มีเพียงเทย์เลอร์ที่ต้องตกเป็นเหยื่อของการใช้ดีปเฟกในทางที่ผิดเท่านั้น เพราะยังมีคนที่ได้รับผลกระทบอีกหลายราย เช่น “โจ ไบเดน” (Joe Biden) ประธานาธิบดีสหรัฐ ที่ถูกปลอมแปลงเสียงเพื่อบิดเบือนข้อมูลในช่วงการหาเสียงเลือกตั้ง เป็นต้น

รายงานข่าวจากสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์เปิดเผยว่า ดีปเฟกคือ Generative AI ประเภทหนึ่งที่สามารถสร้างสื่อสังเคราะห์ ไม่ว่าจะเป็นภาพนิ่ง เสียง ภาพเคลื่อนไหว ผ่านการเรียนรู้เชิงลึก (Deep Learning) และใช้ข้อมูลจากลักษณะภายนอก เช่น สีผิว ตา ปาก จมูก เป็นต้น

การสร้างสื่อจากดีปเฟกแบ่งเป็น 2 แบบหลัก ๆ ได้แก่ 1.การปลอมแค่บางส่วน (Face Wrap) หรือการเอาใบหน้าของบุคคลที่ต้องการปลอมไปใส่ในหน้าของบุคคลจริง แล้วเลียนแบบพฤติกรรมของบุคคลนั้น และ 2.การปลอมทั้งหมด (Face Reenactment) หรือการใช้ AI สร้างภาพสังเคราะห์จากการป้อนข้อมูลลักษณะภายนอกของบุคคลต่าง ๆ ให้ระบบเรียนรู้

สำนักข่าวบลูมเบิร์ก (Bloomberg) รายงานโดยอ้างอิงการวิจัยของ “เจเนวีฟ โอ” (Genevieve Oh) นักวิเคราะห์อิสระว่า กระแส AI ที่เฟื่องฟูขึ้น ทำให้สื่ออนาจารที่สร้างจากเทคโนโลยีดีปเฟกเพิ่มจำนวนมากกว่า 9 เท่า จากปี 2563 โดยช่วงปลายปีที่ผ่านมา มีคอนเทนต์ประเภทนี้เผยแพร่อยู่บนโลกออนไลน์กว่า 114,000 รายการ

ทั้งนี้ สื่อประเภทดังกล่าวยังสามารถค้นหาได้อย่างง่ายดาย ผ่านการใช้เสิร์ชเอ็นจิ้น และแม้ว่า Google จะมีแบบฟอร์มสำหรับยื่นคำร้องเพื่อลบเนื้อหาที่สร้างจากดีปเฟก แต่ก็ยังไม่สามารถจัดการได้อย่างเด็ดขาด รวมถึงยังมีการเผยแพร่คอนเทนต์ประเภทนี้ผ่านแพลตฟอร์มอื่น ๆ เช่น Discord และ Midjourney ด้วย

อย่างไรก็ตาม การตรวจจับเนื้อหาที่สร้างจากดีปเฟกไม่ใช่เรื่องง่าย เพราะเมื่อ AI มีความสามารถมากขึ้น การสร้างเนื้อหาจะเหมือนจริงขึ้นด้วย แต่แพลตฟอร์มโซเชียลมีเดียต่าง ๆ เช่น TikTok, Facebook และ Instagram ก็ได้ลงทุนในการพัฒนาเทคโนโลยีตรวจจับและคัดกรองเนื้อหาที่สังเคราะห์จาก AI เพื่อสร้างความอุ่นใจให้กับผู้ใช้งานบนแพลตฟอร์ม

แม้ว่าในปัจจุบันจะยังไม่มีกฎหมายที่กำกับดูแลด้านนี้โดยเฉพาะ แต่หลายฝ่ายก็พยายามผลักดันมาตรการควบคุมการละเมิดสิทธิส่วนบุคคลที่เกิดจากการใช้ดีปเฟก หรือเนื้อหาที่สร้างจาก AI เพื่อปกป้องเหยื่อและผู้ใช้งานที่ได้รับความเสียหาย เช่น สภาคองเกรสได้เริ่มหารือเกี่ยวกับขั้นตอนทางกฎหมาย เพื่อปกป้องสิทธิของคนดังและศิลปินจากการใช้ AI ในบางกรณี เป็นต้น

อ่านข่าวต้นฉบับได้ที่ : กรณีศึกษาด้านมืด AI ใช้ “ดีปเฟก” สวมรอย Taylor Swift

ติดตามข่าวล่าสุดได้ทุกวัน ที่นี่
– Website : https://www.prachachat.net

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...