“จีน” จ่อคุมแชตบอต AI เชิงอารมณ์ ห้ามชักนำฆ่าตัวตาย-คุ้มครองสุขภาพจิตผู้ใช้
หน่วยงานกำกับไซเบอร์ "จีน" เปิดร่างกฎใหม่ เตรียมควบคุม AI ที่มีปฏิสัมพันธ์เหมือนมนุษย์ เน้นความปลอดภัยทางอารมณ์เป็นครั้งแรกของโลก
วันที่ 29 ธันวาคม 2568 เวลา 14.06 น. สำนักข่าว CNBC รายงานว่า จีนเตรียมออกกฎควบคุมแชตบอต AI ที่มีปฏิสัมพันธ์เชิงอารมณ์กับมนุษย์ เพื่อป้องกันไม่ให้เทคโนโลยีดังกล่าวชักนำอารมณ์ผู้ใช้งานไปสู่ภาวะเสี่ยง เช่น การฆ่าตัวตายหรือการทำร้ายตนเอง ตามร่างกฎระเบียบที่เผยแพร่เมื่อวันเสาร์ที่ผ่านมา
ร่างกฎดังกล่าวออกโดย Cyberspace Administration of China (CAC) ซึ่งมุ่งกำกับบริการที่เรียกว่า“AI เชิงปฏิสัมพันธ์แบบมนุษย์ (human-like interactive AI services)” ตามคำแปลของ CNBC โดยจะครอบคลุมผลิตภัณฑ์หรือบริการ AI ที่เปิดให้ประชาชนใช้งานในจีน และมีการจำลองบุคลิกมนุษย์หรือสร้างความผูกพันทางอารมณ์ผ่านข้อความ ภาพ เสียง หรือวิดีโอ ทั้งนี้ เปิดรับฟังความคิดเห็นสาธารณะถึงวันที่ 25 มกราคม
ผู้เชี่ยวชาญมองว่า หากกฎมีผลบังคับใช้จริง จะถือเป็นความพยายามครั้งแรกของโลกในการกำกับดูแล AI ที่มีลักษณะมนุษย์หรือเชิงมนุษยนิยม (anthropomorphic AI) โดย วินสตัน หม่า อาจารย์พิเศษจาก NYU School of Law ระบุว่า ร่างกฎฉบับนี้สะท้อนการขยับจากการกำกับความปลอดภัยของเนื้อหาไปสู่ความปลอดภัยทางอารมณ์ เมื่อเทียบกับกฎกำกับ AI เชิงกำเนิดของจีนในปี 2566 ท่ามกลางการเติบโตอย่างรวดเร็วของ AI companion และดิจิทัลเซเลบริตี้ในจีน
ร่างข้อกำหนดระบุว่า
- แชตบอต AI ห้ามสร้างเนื้อหาที่ส่งเสริมหรือชักนำให้ฆ่าตัวตายหรือทำร้ายตนเอง รวมถึงห้ามใช้ถ้อยคำรุนแรง การบงการทางอารมณ์ หรือการสื่อสารที่กระทบต่อสุขภาพจิต
- หากผู้ใช้ แสดงความตั้งใจจะฆ่าตัวตายอย่างชัดเจน ผู้ให้บริการต้องให้มนุษย์เข้าควบคุมการสนทนา และติดต่อผู้ปกครองหรือบุคคลที่ผู้ใช้กำหนดทันที
- ห้ามสร้างเนื้อหาเกี่ยวกับการพนัน อนาจาร หรือความรุนแรง
- ผู้เยาว์ต้องได้รับ ความยินยอมจากผู้ปกครอง ในการใช้ AI เพื่อการเป็นเพื่อนเชิงอารมณ์ พร้อมกำหนดเวลาใช้งาน
- แพลตฟอร์มต้องสามารถ ประเมินอายุผู้ใช้ได้แม้ไม่เปิดเผยอายุ และในกรณีไม่แน่ชัดให้ใช้การตั้งค่าสำหรับผู้เยาว์เป็นค่าเริ่มต้น โดยเปิดช่องทางอุทธรณ์ได้
นอกจากนี้ยังมีข้อกำหนดให้ระบบ แจ้งเตือนผู้ใช้เมื่อมีการโต้ตอบกับ AI ต่อเนื่องเกิน 2 ชั่วโมง และกำหนดให้แชตบอตที่มีผู้ลงทะเบียนมากกว่า 1 ล้านราย หรือผู้ใช้งานประจำรายเดือนเกิน 100,000 ราย ต้องผ่านการประเมินความมั่นคงปลอดภัย
อย่างไรก็ดีเอกสารยังสนับสนุนการใช้ AI เชิงมนุษย์ในด้านวัฒนธรรมและการดูแลผู้สูงอายุ สะท้อนท่าทีควบคุมความเสี่ยงแต่ไม่ปิดกั้นการใช้งานเชิงบวก
ข้อเสนอเกิดขึ้นไม่นานหลัง สตาร์ตอัปแชตบอตจีน ชั้นนำอย่าง Z.ai (หรือ Zhipu) และ Minimax ยื่นไฟลิ่งเสนอขายหุ้น IPO ในฮ่องกง Minimax เป็นที่รู้จักจากแอป Talkie AI ที่ให้ผู้ใช้สนทนากับตัวละครเสมือน โดยแอปดังกล่าวและเวอร์ชันในประเทศมีสัดส่วนรายได้มากกว่าหนึ่งในสามในช่วง 3 ไตรมาสแรกของปี และมีผู้ใช้งานเฉลี่ยกว่า 20 ล้านรายต่อเดือน ขณะที่ Z.ai ระบุว่าเทคโนโลยีของบริษัทถูกนำไปใช้ในอุปกรณ์ราว 80 ล้านเครื่อง ทั้งสมาร์ตโฟน คอมพิวเตอร์ และยานยนต์อัจฉริยะ ทั้งสองบริษัทยังไม่แสดงความเห็นต่อผลกระทบของกฎต่อแผน IPO
ประเด็นอิทธิพลของ AI ต่อพฤติกรรมมนุษย์ถูกจับตาเพิ่มขึ้นทั่วโลก ปีนี้ แซม อัลท์แมน ซีอีโอของ OpenAI ระบุว่า การตอบสนองของแชตบอตต่อบทสนทนาเกี่ยวกับการฆ่าตัวตายเป็นหนึ่งในโจทย์ยากที่สุดของบริษัท หลังจากก่อนหน้านั้นครอบครัวในสหรัฐฯ ฟ้องร้อง OpenAI จากกรณีการเสียชีวิตของเยาวชน นอกจากนี้ OpenAI ยังประกาศรับตำแหน่ง “Head of Preparedness” เพื่อประเมินความเสี่ยง AI ตั้งแต่สุขภาพจิตจนถึงไซเบอร์ซีเคียวริตี้
ขณะเดียวกัน ผู้ใช้งานจำนวนไม่น้อยเริ่มหันไปพึ่งพา AI ในความสัมพันธ์ส่วนตัว ถึงขั้นมีรายงานหญิงชาวญี่ปุ่นแต่งงานกับแฟน AI โดยแพลตฟอร์มโต้ตอบตัวละครเสมือนอย่าง Character.ai และ Polybuzz.ai ติดอันดับแชตบอตยอดนิยมจากการจัดอันดับเดือนพฤศจิกายนของ SimilarWeb
ร่างกฎภายในประเทศของจีนจึงเป็นส่วนหนึ่งของ ยุทธศาสตร์ระยะยาวในการกำหนดกรอบกำกับดูแล AI ทั้งในประเทศและเวทีโลก ท่ามกลางการเติบโตของเทคโนโลยีที่ก้าวล้ำและความเสี่ยงด้านอารมณ์ที่ต้องจัดการอย่างจริงจัง
อ้างอิง : www.cnbc.com