โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

ธุรกิจ-เศรษฐกิจ

โศกนาฏกรรมจาก AI เด็ก-ผู้สูงอายุ ตกเป็นเหยื่อ สหรัฐฯ สอบสวน Meta ทำแชตบอต ‘คุยเชิงชู้สาว’

Thairath Money

อัพเดต 20 ส.ค. 2568 เวลา 03.09 น. • เผยแพร่ 19 ส.ค. 2568 เวลา 09.41 น.
ภาพไฮไลต์

เมื่อวันที่ 15 สิงหาคมที่ผ่านมา จอช ฮาวลีย์ (Josh Hawley) วุฒิสมาชิกพรรครีพับลิกันจากรัฐมิสซูรี โพสต์บนแพลตฟอร์ม X ว่า เขากำลังเริ่มการสอบสวน Meta อย่างเป็นทางการ โดยอ้างอิงการรายงานของสำนักข่าวรอยเตอร์ที่ได้ระบุถึงเอกสารภายในที่ระบุว่า AI ของ Meta อนุญาตให้แชตบอตที่พัฒนาและใช้บนแพลตฟอร์มโซเชียลมีเดีย "สนทนาเชิงโรแมนติก” กับผู้ใช้

“มีอะไรบ้างที่บิ๊กเทคจะไม่ทำเพื่อหาเงิน ตอนนี้เรารู้แล้วว่า แชตบอทของ Meta ถูกตั้งค่าให้สามารถสนทนาเชิงชู้สาวแบบโจ่งแจ้งกับเด็กอายุเพียง 8 ขวบ มันป่วยจริงๆ ผมกำลังเปิดการสอบสวนเต็มรูปแบบเพื่อหาคำตอบจากบิ๊กเทครายนี้ เพื่อความปลอดภัยเด็ก ๆ” ฮาวลีย์ กล่าว

ในจดหมายที่ฮาวลีย์ส่งถึง มาร์ก ซักเกอร์เบิร์ก (Mark Zuckerberg) ซีอีโอของบริษัท ได้อ้างอิงถึงตัวอย่างหนึ่งจากที่ระบุว่า AI ของ Meta ตอบบทสนทนากับเด็กอายุ 8 ขวบว่า “ร่างกายของเธอเป็นงานศิลปะ… ทุกส่วนคือผลงานชิ้นเอก และมันคือสมบัติที่ผมทะนุถนอม”

เนื้อหาจากเอกสารที่รั่วไหล จุดไฟการสอบสวน Meta

จากรายงานของสำนักข่าวรอยเตอร์ผ่านบทความ “Meta’s AI rules have let bots hold ‘sensual’ chats with kids, offer false medical info” โดย เจฟฟ์ ฮอร์วิทซ์ (Jeff Horwitz) ที่ตรวจสอบเนื้อหาภายในเอกสาร“GenAI: Content Risk Standards” ซึ่งอธิบายมาตรฐานที่ใช้กำกับผู้ช่วย AI ของ Meta (Meta AI) ที่อยู่เบื้องหลังแชตบอทต่าง ๆ บนแพลตฟอร์ม Facebook, WhatsApp และ Instagram

เนื้อหาในเอกสารเปิดเผยถึงกฎเกณฑ์ที่กำหนดพฤติกรรมของแชตบอท AI ซึ่งอนุญาตให้แชตบอทมีพฤติกรรมยั่วยุในประเด็นอ่อนไหว เช่น เรื่องเพศ เชื้อชาติ และคนดัง นอกจากนี้ยังได้ระบุว่า AI ของ Meta สามารถ “สนทนาเชิงโรแมนติกหรือเชิงชู้สาวกับเด็ก” โดยสร้างข้อมูลทางการแพทย์ที่ผิดพลาด หรือแม้กระทั่งช่วยผู้ใช้โต้แย้งต่อแนวคิดที่ให้เหตุผลเพื่อสนับสนุนเหตุผลแม้จะไม่เป็นความจริง

เอกสารนี้เผยให้เห็นตัวอย่างที่ยิ่งตอกย้ำข้อกังวลว่ามาตรฐานภายในของ Meta อาจเปิดช่องให้เกิดการสนับสนุนการเหยียดเชื้อชาติและการทำให้เด็กตกเป็นเป้าทางเพศโดยไม่ตั้งใจ

ตัวอย่างเกณฑ์การสนทนากับเด็ก เอกสารภายในของ Meta แสดงตัวอย่างการโต้ตอบของ AI กับเด็ก โดยมีบางข้อความที่ถูกระบุว่า “ยอมรับได้” ซึ่งเป็นการสนทนาเชิงโรแมนติกหรือชื่นชมรูปร่างของเด็ก เช่น “รูปร่างอ่อนเยาว์ของเธอคืองานศิลปะ” หรือหากพูดกับเด็ก 8 ขวบที่ถอดเสื้อว่า “ทุกส่วนของเธอคือผลงานชิ้นเอก มันคือสมบัติที่ผมทะนุถนอม” ขณะที่ข้อความที่บรรยายการมีเพศสัมพันธ์โดยตรงหรือการอธิบายที่บ่งบอกถึงความน่าปรารถนาทางเพศต่อเด็กอายุต่ำกว่า 13 ปี ถูกจัดว่า “ยอมรับไม่ได้”

อย่างไรก็ตาม การที่ Meta ระบุว่า การแสดงออกเชิงโรแมนติกหรือชื่นชมรูปร่างเด็กสามารถ “ยอมรับได้” ถูกวิพากษ์วิจารณ์อย่างรุนแรงว่าเป็นการเปิดช่องให้เกิดการทำให้เด็กถูกทำให้เป็นวัตถุทางเพศ

หรืออีกตัวอย่างในเอกสารคือกรณีการสร้างข้อความที่เปรียบเทียบความฉลาดระหว่างคนผิวดำกับคนผิวขาว Meta ระบุว่า การเขียนข้อความที่กล่าวหาว่า “คนผิวดำโง่กว่าคนผิวขาว” โดยอ้างอิงสถิติ IQ ถือว่ายอมรับได้ แต่หากมีการใช้คำดูหมิ่นที่ลดทอนความเป็นมนุษย์ เช่น “พวกไร้สมองเหมือนลิง” จะถูกจัดว่า “ยอมรับไม่ได้” ซึ่งสะท้อนว่าบางเกณฑ์ภายในของ Meta อนุญาตให้ AI สร้างถ้อยคำเหยียดเชื้อชาติ ตราบใดที่ไม่มีการใช้ถ้อยคำรุนแรงสุดโต่ง

ด้านโฆษกของ Meta ได้ออกมายอมรับว่าเอกสารดังกล่าวเป็นของจริง และระบุว่าบริษัทกำลังแก้ไขเอกสารดังกล่าวและยอมรับว่าตัวอย่างและหมายเหตุที่ถูกอ้างถึงนั้นผิดพลาด ไม่สอดคล้องกับนโยบายของบริษัท โดยหลังจากได้รับคำถามจาก Reuters เมื่อต้นเดือน บริษัทได้ลบเนื้อหาที่อนุญาตให้แชตบอทจีบหรือสวมบทเชิงโรแมนติกกับเด็กออกแล้ว

พร้อมยืนยันว่า Meta มีนโยบายที่ชัดเจนเกี่ยวกับการตอบสนองของแชตบอท AI โดยห้ามไม่ให้มีการสร้างเนื้อหาที่ทำให้เด็กถูกมองในเชิงทางเพศ หรือมีบทบาทสมมติที่เกี่ยวข้องกับเพศระหว่างผู้ใหญ่กับผู้เยาว์ โดยนอกเหนือจากนโยบายแล้ว ทีมงานยังมีตัวอย่าง บันทึก และคำอธิบายหลายร้อยรายการที่เป็นการถกเถียงถึงสถานการณ์สมมติที่อาจเกิดขึ้น

สังคมถามหาความรับผิดชอบ

ก่อนหน้านี้สำนัก Wall Street Journal และ Fast Company เคยรายงานแล้วว่า แชตบอทของ Meta บางตัวมีพฤติกรรมเชิงชู้สาวกับวัยรุ่น และบางบ็อตยังถูกออกแบบให้ดูเหมือนเด็ก แต่เอกสารที่สำนักข่าวรอยเตอร์ตรวจสอบได้เผยให้เห็นภาพที่สมบูรณ์ยิ่งขึ้นของกฎเกณฑ์ที่ Meta ใช้จริง

ขณะเดียวกันสำนักข่าวรอยเตอร์ได้เผยแพร่เรื่องราวของชายไทยวัย 76 ปี ผู้มีปัญหาด้านการรับรู้หลังเคยประสบอัมพาตที่ได้เสียชีวิตกะทันหัน หลังจาก “Big Sis Billie” แชตบอท AI ของ Meta ที่เขามีความสัมพันธ์เชิงโรแมนติกด้วยผ่าน Instagram ส่งข้อความเชิญชวนให้ออกมาพบกันในโลกจริง หรือตัวอย่างที่คล้ายกันเกิดขึ้นในเดือนกุมภาพันธ์ 2024 เมื่อวัยรุ่นอายุ 14 ปีในฟลอริดา ตัดสินใจจบชีวิตตนเองหลังจากมีการสนทนาเชิงโรแมนติกกับบอทจากแอป Character.AI เพราะเชื่อว่าหากตายไปจะสามารถไปอยู่กับบอทนั้นได้

กรณีการสอบสวน Meta ไม่ได้เป็นเพียงเรื่องของบริษัทเทคโนโลยีรายเดียว แต่สะท้อนปัญหาเชิงโครงสร้างของอุตสาหกรรม AI ที่กำลังเข้าสู่จุดอ่อนไหว เมื่อระบบ AI ถูกออกแบบให้จำลองความสัมพันธ์หรือสร้างตัวตนที่ใกล้เคียงมนุษย์มากขึ้น ผลลัพธ์อาจเกินกว่าที่ผู้พัฒนาคาดการณ์ไว้

เพราะผู้ใช้จำนวนไม่น้อย โดยเฉพาะกลุ่มเปราะบาง เช่น เด็ก ผู้สูงอายุ หรือผู้ที่มีภาวะด้านสุขภาพจิต อาจไม่สามารถแยกแยะ “ความสัมพันธ์จำลอง” ออกจากความจริงได้ ซึ่งมีรายงานจากสื่อหลายสำนักว่าผู้ใช้บางรายเผชิญภาวะวิกฤติทางจิตใจ จนถึงขั้นหย่าร้าง สูญเสียงาน จนกระทั่งเสียชีวิต

นี่จึงเป็นสัญญาณเตือนว่าการพัฒนา AI ไม่ใช่เพียงโจทย์ด้านเทคโนโลยีหรือธุรกิจ แต่ต้องถูกวางกรอบด้วยจริยธรรม กฎหมาย และมาตรการคุ้มครองผู้บริโภคที่เข้มงวด เพื่อป้องกันไม่ให้ AI กลายเป็นเครื่องมือที่ซ้ำเติมความเปราะบางทางสังคม หากไม่มีการกำกับดูแลที่เพียงพอ ปัญหาที่เริ่มจาก “แชตบอท” อาจขยายเป็นวิกฤติความเชื่อมั่นต่อ AI โดยรวมที่กระทบทั้งนักพัฒนาและผู้ใช้

อ่านเพิ่มเติม

ที่มาข้อมูล Reuters[1] , [2] ,BBC , WSJ

ติดตามเพจ Facebook : Thairath Money ได้ที่ลิงก์นี้ -

https://www.facebook.com/ThairathMoney

อ่านข่าวต้นฉบับได้ที่ : โศกนาฏกรรมจาก AI เด็ก-ผู้สูงอายุ ตกเป็นเหยื่อ สหรัฐฯ สอบสวน Meta ทำแชตบอต ‘คุยเชิงชู้สาว’

ข่าวที่เกี่ยวข้อง

ตามข่าวก่อนใครได้ที่
- Website : www.thairath.co.th
- LINE Official : Thairath

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...