โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

หุ้น การลงทุน

“จีน” จ่อคุมแชตบอต AI เชิงอารมณ์ ห้ามชักนำฆ่าตัวตาย-คุ้มครองสุขภาพจิตผู้ใช้

การเงินธนาคาร

อัพเดต 29 ธ.ค. 2568 เวลา 15.31 น. • เผยแพร่ 29 ธ.ค. 2568 เวลา 08.31 น.

หน่วยงานกำกับไซเบอร์ "จีน" เปิดร่างกฎใหม่ เตรียมควบคุม AI ที่มีปฏิสัมพันธ์เหมือนมนุษย์ เน้นความปลอดภัยทางอารมณ์เป็นครั้งแรกของโลก

วันที่ 29 ธันวาคม 2568 เวลา 14.06 น. สำนักข่าว CNBC รายงานว่า จีนเตรียมออกกฎควบคุมแชตบอต AI ที่มีปฏิสัมพันธ์เชิงอารมณ์กับมนุษย์ เพื่อป้องกันไม่ให้เทคโนโลยีดังกล่าวชักนำอารมณ์ผู้ใช้งานไปสู่ภาวะเสี่ยง เช่น การฆ่าตัวตายหรือการทำร้ายตนเอง ตามร่างกฎระเบียบที่เผยแพร่เมื่อวันเสาร์ที่ผ่านมา

ร่างกฎดังกล่าวออกโดย Cyberspace Administration of China (CAC) ซึ่งมุ่งกำกับบริการที่เรียกว่า“AI เชิงปฏิสัมพันธ์แบบมนุษย์ (human-like interactive AI services)” ตามคำแปลของ CNBC โดยจะครอบคลุมผลิตภัณฑ์หรือบริการ AI ที่เปิดให้ประชาชนใช้งานในจีน และมีการจำลองบุคลิกมนุษย์หรือสร้างความผูกพันทางอารมณ์ผ่านข้อความ ภาพ เสียง หรือวิดีโอ ทั้งนี้ เปิดรับฟังความคิดเห็นสาธารณะถึงวันที่ 25 มกราคม

ผู้เชี่ยวชาญมองว่า หากกฎมีผลบังคับใช้จริง จะถือเป็นความพยายามครั้งแรกของโลกในการกำกับดูแล AI ที่มีลักษณะมนุษย์หรือเชิงมนุษยนิยม (anthropomorphic AI) โดย วินสตัน หม่า อาจารย์พิเศษจาก NYU School of Law ระบุว่า ร่างกฎฉบับนี้สะท้อนการขยับจากการกำกับความปลอดภัยของเนื้อหาไปสู่ความปลอดภัยทางอารมณ์ เมื่อเทียบกับกฎกำกับ AI เชิงกำเนิดของจีนในปี 2566 ท่ามกลางการเติบโตอย่างรวดเร็วของ AI companion และดิจิทัลเซเลบริตี้ในจีน

ร่างข้อกำหนดระบุว่า

  • แชตบอต AI ห้ามสร้างเนื้อหาที่ส่งเสริมหรือชักนำให้ฆ่าตัวตายหรือทำร้ายตนเอง รวมถึงห้ามใช้ถ้อยคำรุนแรง การบงการทางอารมณ์ หรือการสื่อสารที่กระทบต่อสุขภาพจิต
  • หากผู้ใช้ แสดงความตั้งใจจะฆ่าตัวตายอย่างชัดเจน ผู้ให้บริการต้องให้มนุษย์เข้าควบคุมการสนทนา และติดต่อผู้ปกครองหรือบุคคลที่ผู้ใช้กำหนดทันที
  • ห้ามสร้างเนื้อหาเกี่ยวกับการพนัน อนาจาร หรือความรุนแรง
  • ผู้เยาว์ต้องได้รับ ความยินยอมจากผู้ปกครอง ในการใช้ AI เพื่อการเป็นเพื่อนเชิงอารมณ์ พร้อมกำหนดเวลาใช้งาน
  • แพลตฟอร์มต้องสามารถ ประเมินอายุผู้ใช้ได้แม้ไม่เปิดเผยอายุ และในกรณีไม่แน่ชัดให้ใช้การตั้งค่าสำหรับผู้เยาว์เป็นค่าเริ่มต้น โดยเปิดช่องทางอุทธรณ์ได้

นอกจากนี้ยังมีข้อกำหนดให้ระบบ แจ้งเตือนผู้ใช้เมื่อมีการโต้ตอบกับ AI ต่อเนื่องเกิน 2 ชั่วโมง และกำหนดให้แชตบอตที่มีผู้ลงทะเบียนมากกว่า 1 ล้านราย หรือผู้ใช้งานประจำรายเดือนเกิน 100,000 ราย ต้องผ่านการประเมินความมั่นคงปลอดภัย

อย่างไรก็ดีเอกสารยังสนับสนุนการใช้ AI เชิงมนุษย์ในด้านวัฒนธรรมและการดูแลผู้สูงอายุ สะท้อนท่าทีควบคุมความเสี่ยงแต่ไม่ปิดกั้นการใช้งานเชิงบวก

ข้อเสนอเกิดขึ้นไม่นานหลัง สตาร์ตอัปแชตบอตจีน ชั้นนำอย่าง Z.ai (หรือ Zhipu) และ Minimax ยื่นไฟลิ่งเสนอขายหุ้น IPO ในฮ่องกง Minimax เป็นที่รู้จักจากแอป Talkie AI ที่ให้ผู้ใช้สนทนากับตัวละครเสมือน โดยแอปดังกล่าวและเวอร์ชันในประเทศมีสัดส่วนรายได้มากกว่าหนึ่งในสามในช่วง 3 ไตรมาสแรกของปี และมีผู้ใช้งานเฉลี่ยกว่า 20 ล้านรายต่อเดือน ขณะที่ Z.ai ระบุว่าเทคโนโลยีของบริษัทถูกนำไปใช้ในอุปกรณ์ราว 80 ล้านเครื่อง ทั้งสมาร์ตโฟน คอมพิวเตอร์ และยานยนต์อัจฉริยะ ทั้งสองบริษัทยังไม่แสดงความเห็นต่อผลกระทบของกฎต่อแผน IPO

ประเด็นอิทธิพลของ AI ต่อพฤติกรรมมนุษย์ถูกจับตาเพิ่มขึ้นทั่วโลก ปีนี้ แซม อัลท์แมน ซีอีโอของ OpenAI ระบุว่า การตอบสนองของแชตบอตต่อบทสนทนาเกี่ยวกับการฆ่าตัวตายเป็นหนึ่งในโจทย์ยากที่สุดของบริษัท หลังจากก่อนหน้านั้นครอบครัวในสหรัฐฯ ฟ้องร้อง OpenAI จากกรณีการเสียชีวิตของเยาวชน นอกจากนี้ OpenAI ยังประกาศรับตำแหน่ง “Head of Preparedness” เพื่อประเมินความเสี่ยง AI ตั้งแต่สุขภาพจิตจนถึงไซเบอร์ซีเคียวริตี้

ขณะเดียวกัน ผู้ใช้งานจำนวนไม่น้อยเริ่มหันไปพึ่งพา AI ในความสัมพันธ์ส่วนตัว ถึงขั้นมีรายงานหญิงชาวญี่ปุ่นแต่งงานกับแฟน AI โดยแพลตฟอร์มโต้ตอบตัวละครเสมือนอย่าง Character.ai และ Polybuzz.ai ติดอันดับแชตบอตยอดนิยมจากการจัดอันดับเดือนพฤศจิกายนของ SimilarWeb

ร่างกฎภายในประเทศของจีนจึงเป็นส่วนหนึ่งของ ยุทธศาสตร์ระยะยาวในการกำหนดกรอบกำกับดูแล AI ทั้งในประเทศและเวทีโลก ท่ามกลางการเติบโตของเทคโนโลยีที่ก้าวล้ำและความเสี่ยงด้านอารมณ์ที่ต้องจัดการอย่างจริงจัง

อ้างอิง : www.cnbc.com

อ่านข่าวที่เกี่ยวข้องกับ สถานการณ์เศรษฐกิจจีน ทั้งหมด ได้ที่นี่

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...