โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

ไอที

พิษเสียงเลียนแบบ AI ใครรับผิดชอบ ?

BT Beartai

อัพเดต 02 ก.ค. 2568 เวลา 07.10 น. • เผยแพร่ 02 ก.ค. 2568 เวลา 07.10 น.
พิษเสียงเลียนแบบ AI ใครรับผิดชอบ ?

จากกรณีข่าว ‘น้าติ่ง สุภาพ ไชยวิสุทธิกุล’ นักพากย์ระดับตำนานของไทยที่เพิ่งโดนพิษเสียง AI เลียนเสียงทำคลิปล้อคนอื่น นี่ไม่ใช่ครั้งแรกที่เราเคยเห็นประเด็นนี้ ใครเลื่อนอ่านข่าวช่วงนี้น่าจะเจอข่าวในลักษณะนี้บ่อย ทั้งข่าว AI เจนภาพเลียนแบบคนดังหลอกลวงชาวโซเชียล AI ทำคลิปล้อเลียนให้เสียหาย หรืออย่าง กรณีล่าสุด ที่ใช้ AI เลียนเสียงที่กำลังเป็นประเด็น

ว่าด้วยเรื่อง AI เลียนเสียง หลายบริษัทมักจะนำประโยชน์จาก AI ฟีเจอร์นี้ไปใช้อย่าง Virtual voice assistant และ Interactive Voice Response (IVR) หรือระบบโทรศัพท์อัตโนมัติที่ช่วยให้ผู้โทรสามารถโต้ตอบกับระบบโดยใช้เสียงหรือการกดปุ่มบนโทรศัพท์เพื่อเลือกตัวเลือกต่าง ๆ แต่กรณีนำเสียงไปหลอกลวงเป็นสแกมเมอร์ หรือการเลียนเสียง AI ก็ดูเหมือนว่าจะเป็นปัญหามากกว่าประโยชน์

คำถามคือเมื่อเกิดประเด็นการใช้ AI ที่ ‘อิสระ’ จนสร้างความเสียหายต่อผู้อื่นแบบนี้ ใครจะเป็นผู้รับผิดชอบ ? มีกฎหมายไหนคุ้มครองบ้างหรือยัง ? ในบทความนี้ เราจะแบ่งเป็น 2 ประเด็น คือ 1. ระบบการทำงานเบื้องหลัง AI เลียนเสียง และ 2. กฎหมายหรือนโยบายคุ้มครองเกี่ยวกับ AI ณ ปัจจุบัน

เบื้องหลังการทำงานของ AI กับการเลียนแบบเสียง

ปกติรูปแบบของการออกเสียง AI คือ TTS (Text-to-speech) ที่เรามักจะได้ยินบ่อย ๆ ตามห้างสรรพสินค้า เสียงที่พูดเป็น Voiceover ในโฆษณา หรือ Virtual assistants อย่าง Siri หลายบริษัทใหญ่ ๆ อย่าง Google ก็มีบริการ AI voice / Chatbot Service แบบนี้ด้วยเหมือนกัน

แต่ลักษณะการทำงานของการเลียนเสียง AI จะเลียนแบบรูปแบบการพูดและการใช้คำของมนุษย์โดยการอิงเสียงของคนใดคนหนึ่ง ทีนี้ขั้นตอนการเทรนเสียง ขอยกตัวอย่างกฎหมายของสกอตแลนด์ ปกติการเทรนเสียงเลียนแบบต้องมีการขออนุญาตก่อนเสมอ และสิ่งสำคัญคือต้องพิจารณาประเด็นด้านการคุ้มครองข้อมูลส่วนบุคคล รวมถึงการระบุว่าการบันทึกเสียงเหล่านั้นถือเป็นข้อมูลส่วนบุคคลหรือไม่

ทั้งนี้ทั้งนั้นก็ไม่ได้ตอบคำถามว่าแล้วกรณีที่นำเสียงเลียนแบบเหล่านี้ไปพูดใส่ร้ายคนอื่น หรือหลอกลวงคนอื่น เข้าข่ายผิดกฎหมายหรือไม่อยู่ดี ซึ่งนำไปสู่ประเด็นที่ 2 คือเรื่องกฎหมายคุ้มครอง

กฎหมาย AI ยังมีช่องโหว่ : เสียง AI ไม่ได้ผิด 100% ? กฎหมายครอบคลุมถึงตรงไหน ?

ผลกระทบจากพิษเสียง AI ค่อนข้างน่ากลัว ถ้าเทียบกับภาพที่สร้างโดย AI อย่างน้อยก็สามารถพิสูจน์ได้ง่ายกว่า และมีข้อสังเกตุที่สามารถเห็นได้เลย แต่เสียงนั้นไม่สามารถจับต้องหรือเปรียบเทียบได้อย่างชัดเจน ซึ่งมนุษย์เราก็แทบจะแยกไม่ออกว่าเสียงที่ได้ยินเป็นเสียงคนจริงหรือเสียงปลอมจาก AI

ปัญหาที่เกิดจากพิษเสียง AI

  • ละเมิดความเป็นส่วนตัว : ใช้เสียงของผู้อื่นโดยไม่ยินยอม ทั้งเพื่อการค้า แกล้ง หรือทำลายชื่อเสียง อาจถูกฟ้องร้อง
  • หมิ่นประมาท/บิดเบือนข้อมูล : สร้างคำพูดเท็จ หรือเผยแพร่ข้อมูลบิดเบือน ทำลายชื่อเสียง อาจถูกดำเนินคดี
  • ละเมิดสิทธิเผยแพร่ : ใช้เสียงคนดังรับรองสินค้าโดยไม่ได้รับอนุญาต อาจมีผลทางกฎหมายร้ายแรง
  • ฉ้อโกง/โจรกรรมข้อมูล : แอบอ้างเป็นบุคคลอื่นเพื่อหลอกลวง อาจถูกตั้งข้อหาฉ้อโกงหรือโจรกรรมข้อมูลส่วนตัว

ในตอนนี้ประเทศไทยและหลาย ๆ ประเทศยังไม่มีกฎหมายคุ้มครองการปลอมแปลงในลักษณะดังกล่าวที่ชัดเจน แต่ National Security Law Firm จากสหรัฐฯ ก็มีนโยบายในการป้องกันกรณีที่โดนล้อเลียนเสียงด้วย AI โดยพิจารณาดังต่อไปนี้

1. ลบเนื้อหา : จัดการลบเสียงโคลนที่ไม่ได้รับอนุญาตออกจากออนไลน์

2. ดำเนินคดี : ฟ้องร้องผู้กระทำผิดฐานละเมิดความเป็นส่วนตัว หมิ่นประมาท หรือสิทธิ์เผยแพร่

3. ส่งหนังสือเตือน : ออกจดหมายยุติการกระทำและเรียกค่าเสียหาย และช่วยกอบกู้ชื่อเสียงให้

นอกจากนี้ในส่วนของ EU Artificial Intelligence Act (EU AI Act) กฎหมายปัญญาประดิษฐ์ฉบับแรกของโลกก็มีแนวทางสำหรับผู้ผลิต AI ที่มีความเสี่ยงสูง โดยมีข้อกำหนดสำคัญที่ต้องปฏิบัติ คือต้องจัดตั้งระบบบริหารจัดการความเสี่ยงและธรรมาภิบาลข้อมูล เพื่อให้ชุดข้อมูลมีความเกี่ยวข้องถูกต้องและสมบูรณ์ พร้อมทั้งจัดทำเอกสารทางเทคนิคและการบันทึกข้อมูลเพื่อการประเมินการปฏิบัติตามข้อกำหนด นอกจากนี้ ยังต้องจัดเตรียมคู่มือการใช้งานและออกแบบระบบให้ผู้ใช้สามารถกำกับดูแลโดยมนุษย์ได้ รวมถึงต้องมั่นใจว่าระบบมีความแม่นยำ ทนทาน และปลอดภัยทางไซเบอร์ในระดับที่เหมาะสม และมีระบบบริหารจัดการคุณภาพเพื่อยืนยันการปฏิบัติตามกฎระเบียบทั้งหมด

แม้ว่า AI จะเป็นเครื่องมือที่สามารถสร้างประโยชน์และความเสียหายได้ แต่หลักการสำคัญที่พิจารณในกฎหมาย AI คือ การยืนยันว่าการกระทำใด ๆ ที่สร้างโดย AI จะต้องสามารถระบุผู้รับผิดชอบที่เป็นมนุษย์ได้เสมอ และผู้พัฒนาหรือผู้ใช้งานไม่สามารถหลีกเลี่ยงความรับผิดชอบโดยอ้างว่า AI คาดเดาไม่ได้เพียงอย่างเดียว

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...