โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

คปภ. วางกรอบใช้ AI อย่างรับผิดชอบชูโปร่งใส–เป็นธรรม

การเงินธนาคาร

อัพเดต 17 พ.ย. 2568 เวลา 15.14 น. • เผยแพร่ 17 พ.ย. 2568 เวลา 08.14 น.

สำนักงาน คปภ. ออกแนวปฏิบัติการกำกับดูแลการใช้งานปัญญาประดิษฐ์ ครั้งแรกของวงการประกันภัยไทย วางกรอบ ใช้ AI อย่างรับผิดชอบ ย้ำชัดงานที่กระทบสิทธิผู้บริโภคหรือมีความเสี่ยงสูง ต้องมีมนุษย์ร่วมตรวจสอบและตัดสินใจ เน้น 4 แกนหลัก—ธรรมาภิบาล มั่นคงปลอดภัย โปร่งใส ตรวจสอบได้ และเป็นธรรมต่อผู้บริโภค

ดร. ชญานิน เกิดผลงาม รองเลขาธิการ ด้านกลยุทธ์และเทคโนโลยี สำนักงานคณะกรรมการกำกับและส่งเสริมการประกอบธุรกิจประกันภัย (สำนักงาน คปภ.) เปิดเผยว่า สำนักงาน ค.ป.ภ.ได้ เผยแพร่ “แนวปฏิบัติ เรื่อง การกำกับดูแลการใช้งานปัญญาประดิษฐ์ สำหรับบริษัทประกันภัย (AI Governance Guideline) พ.ศ. 2568” เพื่อเป็นกรอบกำกับดูแลการประยุกต์ใช้เทคโนโลยีปัญญาประดิษฐ์ในภาคธุรกิจประกันภัย

โดยมุ่งสร้างสมดุลระหว่างการคุ้มครองผู้บริโภคกับการส่งเสริมนวัตกรรม เพื่อให้การประยุกต์ใช้ AI ในภาคธุรกิจประกันภัย เกิดขึ้นอย่างรับผิดชอบ โปร่งใส และมีความมั่นคงปลอดภัย โดยแนวปฏิบัตินี้ได้ผ่านการเปิดรับฟังความคิดเห็นจากสาธารณะมาก่อนแล้ว

ซึ่งแนวปฏิบัติดังกล่าวจัดทำขึ้นภายใต้หลัก Risk-Based Proportionality เพื่อให้บริษัทประกันภัยสามารถประเมินระดับความเสี่ยงของเทคโนโลยีที่ใช้และนำไปปรับใช้ตามระดับความเสี่ยงของเทคโนโลยี AI ครอบคลุม 4 หลักสำคัญ ได้แก่

1. การกำกับดูแลการใช้งาน AI (AI Governance) กำหนดโครงสร้างการบริหารจัดการ และการกำกับดูแลที่ชัดเจน ทั้งบทบาท หน้าที่ และความรับผิดชอบของผู้เกี่ยวข้อง พร้อมส่งเสริมความรู้ด้านจริยธรรมและการบริหารความเสี่ยงจาก AI ให้กับบุคลากรทุกระดับ เพื่อให้การใช้งานเทคโนโลยีเป็นไปอย่างโปร่งใส ตรวจสอบได้ และมีความรับผิดชอบ

2. ความทนทานและความมั่นคงปลอดภัยของระบบ AI (Robustness and AI Security) วางมาตรการป้องกันความผิดพลาดและภัยคุกคามไซเบอร์ครอบคลุมตลอดวงจรชีวิตของระบบ ตั้งแต่การออกแบบที่ปลอดภัย (Secure by Design) การจัดการช่องโหว่ การบันทึกเหตุการณ์ (Log) ไปจนถึงการสำรองและกู้คืนข้อมูล เพื่อให้ระบบมีความมั่นคง ความเสถียร และความปลอดภัย พร้อมรับมือกับความเสี่ยงจากภัยคุกคามทางไซเบอร์

3. ความโปร่งใสและความสามารถในการอธิบาย (Transparency and Explainability) กำหนดให้บริษัทประกันภัยต้องสามารถอธิบายเหตุผล กระบวนการตัดสินใจ หรือผลลัพธ์จาก AI ได้อย่างชัดเจน โดยเฉพาะในกรณีที่มีผลกระทบต่อสิทธิประโยชน์ของผู้บริโภค เพื่อให้การทำงานของระบบ AI สร้างความเข้าใจและความเชื่อมั่นแก่ผู้บริโภคและผู้เกี่ยวข้อง และสามารถตรวจสอบได้

4. ความเป็นธรรมและการคุ้มครองผู้บริโภค (Fairness and Consumer Protection) ส่งเสริมการใช้ AI ที่ไม่สร้างอุปสรรคต่อการเข้าถึงบริการประกันภัย กำกับดูแลคุณภาพข้อมูลเพื่อลดความเสี่ยงจากอคติของข้อมูล (Data Bias) อันอาจนำไปสู่การเลือกปฏิบัติอย่างไม่เป็นธรรม และต้องเปิดช่องให้ผู้บริโภคสามารถร้องขอคำอธิบาย หรือให้มนุษย์ตรวจสอบการตัดสินใจของ AI ได้ เพื่อป้องกันการเกิดอคติ (Bias) และสร้างความมั่นใจว่าผู้บริโภคทุกกลุ่มได้รับการปฏิบัติอย่างเท่าเทียม

“สำนักงาน คปภ. เน้นย้ำให้การกำกับดูแลตามหลักการ “Human in the loop” สำหรับการใช้งาน AI กับกิจกรรมที่มีความเสี่ยงสูง (High-Risk AI) โดยเฉพาะกิจกรรมที่มีผลกระทบโดยตรงต่อผู้เอาประกันภัย เช่น การพิจารณารับประกันภัย การกำหนดเบี้ยประกันภัย การจัดการค่าสินไหมทดแทนและผลประโยชน์ตามกรมธรรม์ โดยกระบวนการเหล่านี้ แนวปฏิบัติระบุว่าบริษัทประกันภัย ควรพิจารณาให้มนุษย์มีส่วนร่วมในการตัดสินใจหรือดำเนินการ (Human in the loop / Human over the loop) เพื่อป้องกันการปฏิบัติอย่างไม่เป็นธรรม”

สำหรับการเผยแพร่แนวปฏิบัติฉบับนี้ ถือเป็นก้าวสำคัญของสำนักงาน คปภ. ในการยกระดับมาตรฐานการกำกับดูแลเทคโนโลยีให้เท่าทันพัฒนาการในยุคดิจิทัล โดยมุ่งให้กฎเกณฑ์ไม่เป็นอุปสรรคต่อการนำนวัตกรรมมาใช้ แต่เป็นกลไกส่งเสริมนวัตกรรมอย่างรับผิดชอบ (Responsible Innovation) ที่ช่วยสร้างความเชื่อมั่นให้แก่ประชาชน ควบคู่กับการเสริมเสถียรภาพของระบบประกันภัยไทยในระยะยาว ผู้สนใจสามารถดาวน์โหลดเอกสาร แนวปฏิบัติการกำกับดูแลการใช้งานปัญญาประดิษฐ์ สำหรับบริษัทประกันภัย (AI Governance Guideline) พ.ศ. 2568 ได้ที่ https://www.oic.or.th/th/rm-survey/

อ่านข่าวที่เกี่ยวข้องกับ แวดวงประกันภัย ทั้งหมด ได้ที่นี่

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...